To jedno z najczęstszych i najbardziej niepokojących pytań dotyczących AI. Odpowiedź nie jest ani prosta, ani dramatyczna. Technologia rzadko likwiduje całe zawody. Znacznie częściej zmienia zakres zadań.
Weźmy przykład księgowości. Dzisiejsze systemy potrafią automatycznie odczytywać faktury, przypisywać je do kategorii i uzgadniać płatności. Znika ręczne przepisywanie danych i wprowadzanie dokumentów do systemu. Nie znika jednak księgowy. Zmienia się jego rola. Z osoby raportującej przeszłość staje się kimś, kto analizuje dane, doradza i ostrzega przed ryzykiem. Sztuczna inteligencja przejmuje rutynę. Człowiek pozostaje przy odpowiedzialności.
W marketingu system może wygenerować opis produktu, stworzyć kilka wersji reklamy i przetestować, która działa lepiej. Automatyzuje masową produkcję prostych treści i ręczne ustawianie kampanii. Nie znika jednak marketingowiec. Z wykonawcy staje się projektantem strategii. Nadzoruje jakość, pilnuje wiarygodności marki i decyduje, czy dana treść w ogóle powinna zostać opublikowana. Model generatywny tworzy tekst na podstawie wzorców językowych. Nie rozumie reputacji firmy i nie ponosi za nią odpowiedzialności.
W administracji system może sprawdzać kompletność wniosków, odpowiadać na powtarzalne pytania i wykrywać nieprawidłowości w dokumentach. Znika część biurokratycznej pracy. Ale decyzje administracyjne wymagają interpretacji prawa i odpowiedzialności. Algorytm może wskazać wzorzec, lecz to człowiek podpisuje decyzję.
W medycynie systemy analizują zdjęcia RTG czy mammografii i wskazują obszary odbiegające od normy. To ogromne wsparcie. Badania pokazują, że lekarz wspierany przez system osiąga wyższą trafność diagnozy niż lekarz działający sam. Sztuczna inteligencja nie przejmuje relacji z pacjentem i nie bierze odpowiedzialności za decyzję terapeutyczną.
Obecnie mamy do czynienia z tak zwaną wąską sztuczną inteligencją, czyli systemami wyspecjalizowanymi w jednym, konkretnym zadaniu. Model do analizy obrazów medycznych nie nauczy się sam prowadzić urzędu. Generator tekstu nie stanie się chirurgiem. To narzędzia.
Czy niektóre stanowiska znikną? Tak. Szczególnie te oparte wyłącznie na powtarzalnych czynnościach. Historia pokazuje jednak, że każda fala automatyzacji zmienia strukturę pracy, a nie usuwa jej całkowicie. Powstają nowe role: specjaliści nadzorujący systemy, analitycy łączący wyniki AI z przepisami prawa czy osoby odpowiedzialne za jakość danych. Kluczowe pytanie nie brzmi więc, czy AI zabierze pracę, ale które zadania przejmie. Sztuczna inteligencja przejmuje rutynę. Człowiek pozostaje przy interpretacji, kontekście i relacjach.
To nie jest uspokajanie na siłę. To opis procesu, który już się dzieje. Najgorszą strategią nie jest walka z technologią. Najgorszą strategią jest udawanie, że jej nie ma, najlepszą - nauczyć się z nią współpracować. Bo w tej zmianie nie chodzi o to, czy maszyna zastąpi człowieka. Chodzi o to, czy człowiek nauczy się używać maszyny mądrzej niż inni.
W marketingu system może wygenerować opis produktu, stworzyć kilka wersji reklamy i przetestować, która działa lepiej. Automatyzuje masową produkcję prostych treści i ręczne ustawianie kampanii. Nie znika jednak marketingowiec. Z wykonawcy staje się projektantem strategii. Nadzoruje jakość, pilnuje wiarygodności marki i decyduje, czy dana treść w ogóle powinna zostać opublikowana. Model generatywny tworzy tekst na podstawie wzorców językowych. Nie rozumie reputacji firmy i nie ponosi za nią odpowiedzialności.
W administracji system może sprawdzać kompletność wniosków, odpowiadać na powtarzalne pytania i wykrywać nieprawidłowości w dokumentach. Znika część biurokratycznej pracy. Ale decyzje administracyjne wymagają interpretacji prawa i odpowiedzialności. Algorytm może wskazać wzorzec, lecz to człowiek podpisuje decyzję.
W medycynie systemy analizują zdjęcia RTG czy mammografii i wskazują obszary odbiegające od normy. To ogromne wsparcie. Badania pokazują, że lekarz wspierany przez system osiąga wyższą trafność diagnozy niż lekarz działający sam. Sztuczna inteligencja nie przejmuje relacji z pacjentem i nie bierze odpowiedzialności za decyzję terapeutyczną.
Obecnie mamy do czynienia z tak zwaną wąską sztuczną inteligencją, czyli systemami wyspecjalizowanymi w jednym, konkretnym zadaniu. Model do analizy obrazów medycznych nie nauczy się sam prowadzić urzędu. Generator tekstu nie stanie się chirurgiem. To narzędzia.
Czy niektóre stanowiska znikną? Tak. Szczególnie te oparte wyłącznie na powtarzalnych czynnościach. Historia pokazuje jednak, że każda fala automatyzacji zmienia strukturę pracy, a nie usuwa jej całkowicie. Powstają nowe role: specjaliści nadzorujący systemy, analitycy łączący wyniki AI z przepisami prawa czy osoby odpowiedzialne za jakość danych. Kluczowe pytanie nie brzmi więc, czy AI zabierze pracę, ale które zadania przejmie. Sztuczna inteligencja przejmuje rutynę. Człowiek pozostaje przy interpretacji, kontekście i relacjach.
To nie jest uspokajanie na siłę. To opis procesu, który już się dzieje. Najgorszą strategią nie jest walka z technologią. Najgorszą strategią jest udawanie, że jej nie ma, najlepszą - nauczyć się z nią współpracować. Bo w tej zmianie nie chodzi o to, czy maszyna zastąpi człowieka. Chodzi o to, czy człowiek nauczy się używać maszyny mądrzej niż inni.

Radio Szczecin