Sekrety Sztucznej Inteligencji
Radio SzczecinRadio Szczecin » Sekrety Sztucznej Inteligencji » Sekrety Sztucznej Inteligencji
Dlaczego ChatGPT czasem się myli i mówi pewnie nawet wtedy, gdy nie ma racji?
Zaczyna się niewinnie. Ktoś prosi model o pomoc przy tekście. Ktoś inny pyta o przepis prawa. Jeszcze ktoś potrzebuje przypisów do pracy naukowej. Odpowiedź przychodzi szybko. Jest uporządkowana, zawiera daty, nazwiska i konkretne sformułowania. Brzmi jak coś, co mogłoby przejść bez poprawek. Dopiero później okazuje się, że jeden z cytowanych artykułów nigdy nie istniał.

W świecie sztucznej inteligencji nazywa się to halucynacją. To sytuacja, w której model generuje informację brzmiącą wiarygodnie, lecz niezgodną z faktami. To nie jest złośliwość, tylko mechanizm. ChatGPT, Gemini, Grok i inne modele językowe nie mają w sobie katalogu prawd. Nie sprawdzają świata tak, jak robi to człowiek. Działają inaczej. Otrzymują fragment zdania i przewidują, jakie słowo z największym prawdopodobieństwem powinno pojawić się dalej. Następnie kolejne - i kolejne. W ten sposób powstaje odpowiedź.

Jeżeli w danych treningowych pewne informacje często występowały razem, model uzna je za pasujące do kontekstu. Nie za prawdziwe, tylko za pasujące. A kiedy trafia na coś, czego w tych danych nie ma, nie zatrzymuje się. Domyka wypowiedź najbardziej prawdopodobnym brzmieniem. Powstaje tekst poprawny, spójny, przekonujący. A im pewniej brzmi, tym rzadziej budzi naszą czujność.

Często pojawia się argument, że model może przecież korzystać z internetu. I rzeczywiście, w wielu wersjach ma dostęp do sieci. Potrafi wyszukać strony, przeanalizować je i oprzeć odpowiedź na aktualnych materiałach. To pomaga, szczególnie przy świeżych informacjach. Nie zmienia jednak sposobu, w jaki powstaje odpowiedź. Nawet gdy model sięga do internetu, łączy znalezione dane w zdania w sposób statystyczny. Może coś uprościć, coś źle zinterpretować lub połączyć wątki, które w rzeczywistości nie powinny się spotkać. Dostęp do sieci zmniejsza problem nieaktualnych informacji, ale nie usuwa mechanizmu halucynacji.

Przez lata systemy oceniano przede wszystkim na podstawie skuteczności odpowiedzi. Im częściej trafiały, tym wyżej były oceniane. Milczenie nie przynosiło punktów. Z perspektywy statystyki bardziej opłaca się spróbować niż przyznać do niewiedzy. Do tego dochodzi czynnik ludzki. Odpowiedzi oceniali ludzie, a ludzie wyżej oceniają wypowiedzi pewne siebie i dobrze uporządkowane. Z czasem system został dopracowany tak, aby jego odpowiedzi brzmiały coraz bardziej przekonująco: spójnie, logicznie, z wyraźnym autorytetem w tonie. Nawet wtedy, gdy pod spodem brakuje twardych faktów.

W praktyce skutki mogą być poważne: zmyślone precedensy w dokumentach prawnych, nieistniejące publikacje naukowe czy błędne informacje medyczne. Halucynacja rzadko wygląda jak pomyłka. Najczęściej wygląda jak coś, czemu łatwo zaufać. Dlatego warto pamiętać o prostej zasadzie: im ważniejsza sprawa, tym większa potrzeba weryfikacji. Prosić o źródła. Sprawdzać daty. Porównywać informacje w niezależnych miejscach. Traktować model jak asystenta, a nie jak wyrocznię.

Sztuczna inteligencja jest potężnym narzędziem. Może przyspieszać pracę, porządkować chaos i podsuwać pomysły. Nie jest jednak autorytetem. Jej pewność siebie wynika z matematyki. Odpowiedzialność za prawdę wciąż spoczywa po naszej stronie.