Publikujemy zdjęcia dzieci z myślą, że trafiają do znajomych i rodziny. Ale w świecie sztucznej inteligencji to już nie tylko wspomnienia, to dane, które mogą zostać wykorzystane w sposób, nad którym nie mamy kontroli. Czym jest generatywny sharenting i dlaczego jedno zdjęcie może mieć konsekwencje na lata?
Większość z nas ma to we krwi. Chcemy chwalić się sukcesami naszych dzieci, ich pierwszymi krokami czy uśmiechem. To zjawisko ma już swoją nazwę "Sharenting". Ale co się dzieje, gdy do tej rodzinnej galerii wkracza sztuczna inteligencja?
Dziś niewinne zdjęcie w sieci to nie tylko pamiątka. To dane, które algorytmy mogą przerobić na głosy, filmy, a nawet zupełnie nowe, fałszywe tożsamości naszych dzieci. Dziś w „Sekretach sztucznej inteligencji” porozmawiamy o generatywnym sharentingu i o tym, czy publikując wizerunek dziecka, nie wystawiamy go na cyfrowe niebezpieczeństwo, którego nie da się już cofnąć.
Moim gościem jest Joanna Szumiło-Jackowska, nauczycielka SAIL International School i doktorantka w Szkole Doktorskiej Uniwersytetu Szczecińskiego.
Dziś niewinne zdjęcie w sieci to nie tylko pamiątka. To dane, które algorytmy mogą przerobić na głosy, filmy, a nawet zupełnie nowe, fałszywe tożsamości naszych dzieci. Dziś w „Sekretach sztucznej inteligencji” porozmawiamy o generatywnym sharentingu i o tym, czy publikując wizerunek dziecka, nie wystawiamy go na cyfrowe niebezpieczeństwo, którego nie da się już cofnąć.
Moim gościem jest Joanna Szumiło-Jackowska, nauczycielka SAIL International School i doktorantka w Szkole Doktorskiej Uniwersytetu Szczecińskiego.
Znamy już termin sharentingu, ale czym właściwie jest generatywny sharenting i dlaczego powinien on budzić w nas większy niepokój niż zwykłe wrzucenie fotki na Facebooka?
Joanna Szumiło-Jackowska: Generatywny sharenting w zasadzie polega na tym samym co sharenting tradycyjny. Różni się tylko udostępnianym materiałem, ponieważ treść jest tu zmodyfikowana. Najczęściej jest to zdjęcie upiększone lub ulepszone, na którym wizerunek dziecka jest po prostu ładniejszy. Ewentualnie jest to materiał, który został zmodyfikowany przez sztuczną inteligencję i na przykład widzimy noworodka, który ucieka z sali porodowej, albo dziecko, które wykonuje zabawny, wymowny taniec.
To jak te słynne kotki, które się ruszają albo zaczynają do nas mówić i składają życzenia świąteczne. Można powiedzieć, że to taki Photoshop na sterydach w łatwiejszy sposób, bo dostępny dla każdego, a nie tylko dla specjalisty.
Joanna Szumiło-Jackowska: Tak, to po prostu animacja, na której znajduje się nasze dziecko.
Jak w takim razie sztuczna inteligencja może dziś wykorzystać jedno zdjęcie dziecka, które publicznie udostępniliśmy? Na jakim etapie zaczyna się możliwość wciągnięcia takiego materiału i modyfikacja przez algorytm?
Joanna Szumiło-Jackowska: Tak naprawdę nad wszystkim co wrzucamy do sieci przestajemy mieć kontrolę. Kiedy udostępniamy zdjęcie na Facebooku, już w tym momencie ją tracimy. Różnica polega na tym, że możemy ograniczyć dostęp do postu lub go usunąć, natomiast jeśli chodzi o sztuczną inteligencję, to co do niej wprowadzimy, już w niej zostaje. Ona bazuje na wprowadzanych danych i udostępniając zdjęcie dziecka, dajemy jej gotowy materiał treningowy. Ona zbiera te informacje i na nich ćwiczy. Może się to skończyć naprawdę różnie. Chciałabym dodać, że na ten moment sztuczna inteligencja jest najsłabsza, ponieważ z każdym dniem rozwija się coraz bardziej i nie jesteśmy w stanie przewidzieć jej przyszłych możliwości, a już teraz są one ogromne. Wspomniał pan o kradzieży tożsamości. Istnieje kampania zorganizowana przez Deutsche Telekom, dostępna na YouTubie, którą serdecznie zachęcam obejrzeć. Świetnie prezentuje ona, jak treści udostępniane w mediach społecznościowych mogą być następnie wykorzystane przez AI do rzeczy, z których przeciętny rodzic może nie zdawać sobie sprawy.
A jak to jest w przypadku deep fake? Czy na podstawie zdjęcia udostępnionego narzędziu AI może powstać film, na którym nasze dziecko mówi lub robi rzeczy, które w rzeczywistości nie miały miejsca?
Joanna Szumiło-Jackowska: Chociażby deep fake sprawia, że może powstać obraz lub film, na którym nasze dziecko wykonuje wszelakie czynności, które zupełnie nie wystąpiły. Znane jest wykorzystanie metody na wnuczka, kiedy oszuści dzwonią i podają się za kogoś bliskiego. Ze sztuczną inteligencją jest to o tyle łatwiejsze, że mając wizerunek dziecka i odpowiednie narzędzie, można wygenerować identyczny głos tego wnuczka. Wtedy dziadek czy babcia dostają wezwanie o pomoc finansową, która brzmi bardzo realnie. Taka osoba ma prawo wierzyć, że bliska osoba potrzebuje wsparcia i szybko zrobi przelew, ponieważ głos brzmi znajomo. Sztuczna inteligencja może być wykorzystana chociażby do tego.
A propos ludzi starszych, trzeba by było ich uczulać na takie sytuacje. W Wielkiej Brytanii był przypadek osoby, która dała się nabrać nie na wnuczka, tylko na Brada Pitta.
Joanna Szumiło-Jackowska: Takich przypadków jest bardzo dużo. To nie tylko Brad Pitt, ale wielu znanych osobistości, które rzekomo mają problemy finansowe i proszą o pomoc, bo na przykład nie mogą wrócić z wakacji do kraju.
To jak te słynne maile od arabskiego księcia, który chce przyjechać do Europy, ale nie może.
Joanna Szumiło-Jackowska: Czasami może nam się wydawać, że te sytuacje są odległe, ale one dzieją się wokół nas. Udostępniając materiał do sieci, umożliwiamy kolejnym osobom jego wykorzystanie.
Gdzie jest pułapka dla rodziców, którzy starają się upiększać zdjęcia swoich pociech? Czy to kwestia polityki prywatności platform, czy może powinny pojawiać się specjalne ostrzeżenia przed publikacją?
Joanna Szumiło-Jackowska: Jestem raczej zwolenniczką sztucznej inteligencji niż osobą, która ją neguje, ponieważ mamy z niej mnóstwo korzyści pomocnych w pracy. Uważam jednak, że można by wykorzystać działania AI do blokowania algorytmów, które podsyłają nam treści dziecięce. Narażamy dzieci na kradzież tożsamości i utratę prywatności, co dla wielu rodziców brzmi niejasno. Powinniśmy otwarcie mówić o tym, że udostępniając treść w mediach społecznościowych lub wprowadzając ją do narzędzia AI, dziecko w tym momencie traci prawo do prywatności. Chodzi o to, żeby wykorzystać sztuczną inteligencję jako swoistą tarczę do blokowania takich treści. Byłoby bardzo wartościowe, gdyby przy próbie udostępnienia zdjęcia wyświetlał się komunikat ostrzegający o zagrożeniach. To uświadomiłoby rodziców, że ich dziecko może znaleźć się w reklamie na drugim końcu świata lub w Darknecie, gdzie przestępcy kradną wizerunki dzieci z kont społecznościowych i nimi handlują.
Może też zostać skradziona tożsamość, która będzie potem wykorzystywana do innych celów.
Joanna Szumiło-Jackowska: Współcześnie używamy twarzy, żeby odblokować telefon. Nasza twarz to nasze hasło. Gdy wprowadzamy zdjęcie dziecka do AI, narzędzie bazuje na biometrii, sprawdza rozstaw oczu czy kształt szczęki. Nie wiemy, jakie będą możliwości w przyszłości i jakie mogą być najczarniejsze konsekwencje. Rozmowy rekrutacyjne czy dostęp do kredytu w banku za dziesięć lat mogą wyglądać zupełnie inaczej. Hasła zabezpieczane twarzą mogą stać się łatwe do złamania. To tylko nieliczne z zagrożeń, a nie mamy dostępu do wszystkich procederów, które dzieją się na świecie.
W jaki sposób możemy uświadamiać rodziców przed tym zagrożeniem, oprócz samej informacji przed zamieszczeniem zdjęcia? Potrzebne są kampanie społeczne?
Joanna Szumiło-Jackowska: Myślę, że to powinno być podejście systemowe. Sharenting najczęściej dotyczy dzieci do piątego roku życia. Trzeba szerzyć informacje o higienie cyfrowej nie tylko w przedszkolu, ale już w szkołach rodzenia. To pierwszy punkt, w którym rodzic spotyka się ze specjalistą i słyszy o rozwoju dziecka. Istnieje też zjawisko parental charting, gdzie rodzice publikują zdjęcia jeszcze przed narodzinami. Trzeba wykorzystać ten moment na uświadamianie zagrożeń. Bardzo przydatne byłoby, gdyby takie informacje pojawiały się też w żłobkach i przedszkolach.
Jako ojciec dziewięciomiesięcznego synka niedawno osobiście przechodziłem przez ten proces i wiem, jak to wygląda.
Joanna Szumiło-Jackowska: Pojawia się radość i rodzic chce wykrzyczeć światu swoje szczęście. Ale trzeba do tego podejść racjonalnie. To jest mały człowiek i fakt, że nie potrafi sam zaprotestować, nie oznacza, że powinniśmy go publikować.
A co w sytuacjach, gdy dziecko staje się ofiarą sharentingu nieświadomie? Na przykład ktoś wrzuca wspólne zdjęcie z wycieczki szkolnej lub urodzin. Jak możemy się przed tym bronić?
Joanna Szumiło-Jackowska: Jeśli widzimy, że nasze dziecko jest na zdjęciu, a nie chcemy tego, należy zwrócić uwagę, aby tę twarz zamazać lub uczynić niewidoczną. Nie jest to stuprocentowa ochrona, ale stanowi barierę. Jeśli jednak zdjęcie trafi już do bazy danych AI, to właściwie nic nie jesteśmy w stanie zrobić, ponieważ te dane zostają tam jako materiał treningowy. Nie da się ich łatwo usunąć, chyba że pisalibyśmy do twórców programu, co pewnie niewiele by zmieniło. To narzędzie jest fascynujące, ale w tej fascynacji również przerażające.
A co może się stać z wizerunkiem dziecka za dziesięć czy piętnaście lat, kiedy ono samo dorośnie, a jego cyfrowe ja zostanie przemielone przez tysiące algorytmów?
Joanna Szumiło-Jackowska: Czarny scenariusz dzieje się już teraz. Istnieje zjawisko Baby Roleplay na Instagramie, gdzie obca osoba kradnie zdjęcia dziecka, zakłada mu konto i podaje się za rodzica. Inni użytkownicy zostawiają tam komentarze, często o podtekście seksualnym. To dzieje się dzisiaj. Każdy może zgłosić takie treści do NASK, ale skala zgłoszeń jest tak duża, że instytucje nie nadążają z ich usuwaniem. Dlatego tak ważne jest blokowanie algorytmów. Nasze zdjęcie bez naszej wiedzy może zostać przerobione przez przestępców i trafić do Darknetu. Technologia posuwa się bardzo szybko i osoby, które zawodowo zajmują się łamaniem zabezpieczeń, wiedzą czego szukać.
Prawo chyba nie nadąża za tą technologią. Można powiedzieć, że sznurówki wyprzedziły buty.
Joanna Szumiło-Jackowska: Na szczęście w Sejmie opracowywany jest projekt zajmujący się konkretnie sharentingiem. To bardzo duży plus, ponieważ regulacja prawna jest niezbędna i cieszę się, że u nas również nad tym pracujemy.
Pojawiają się doniesienia o wirtualnych porwaniach, gdzie oszuści używają AI do sfabrykowania materiału z dzieckiem w celu wyłudzenia okupu. Czy publikowanie dużej ilości zdjęć ułatwia im zadanie?
Joanna Szumiło-Jackowska: Zdecydowanie tak. Każdy ma dostęp do mediów społecznościowych i może pobrać dowolne zdjęcie lub zrobić screen. Przestępcy wykorzystują to, że wiele kont jest otwartych i nie ma barier zabezpieczających. To po prostu ułatwia im wykorzystanie wizerunku.
Nie dajmy się w takim razie i ograniczajmy publikacje do minimum.
Joanna Szumiło-Jackowska: Nawet całkowicie bym to ograniczyła.
Pani w swojej pracy zajmuje się badaniem pedagogów w kontekście sharentingu. Czy ludzie, którzy zawodowo zajmują się wychowywaniem, są bardziej świadomi tych zagrożeń, czy padają ofiarą tych samych mechanizmów co wszyscy?
Joanna Szumiło-Jackowska: To bardzo ciekawy temat. Ta grupa jest specyficzna. Można znaleźć pedagogów, którzy stosują bariery ochronne, na przykład prywatne profile, ale często jest to ich jedyne zabezpieczenie. Są też znani, rozpoznawalni pedagodzy, którzy publikują masę postów na otwartych kontach. Jedni dzielą się piękną narracją miłości, inni uprawiają oversharenting, podkreślając przy tym swoje wykształcenie i negując głosy krytyczne. Przekrój postaw jest bardzo duży. Może to wynikać z innego systemu wartości lub faktu, że dla osób medialnych zasięgi stają się ważniejsze niż zastanowienie się nad dobrem dziecka.
Nasi rodzice ostrzegali, że telefony będą zgubą ludzkości, co jest oczywiście nieprawdą. Nie bójmy się technologii, bo jest po to, żeby z niej korzystać, ale bądźmy świadomi zagrożeń. To jak z nożem, trzeba się nim nauczyć posługiwać. Czy w szkołach nie powinien pojawić się przedmiot uczący o takich zagrożeniach?
Joanna Szumiło-Jackowska: Jest to bardzo możliwe. Takie zagadnienia mogą być omawiane na informatyce lub w ramach edukacji zdrowotnej jako element higieny cyfrowej. Umiejętność bezpiecznego korzystania z technologii jest jak najbardziej do zrealizowania w procesie nauczania.
Gdybyśmy mieli stworzyć złoty standard bezpieczeństwa, co rodzic powinien zrobić w świecie zdominowanym przez generatywną sztuczną inteligencję?
Joanna Szumiło-Jackowska: Przede wszystkim rodzic ma prawo nie wiedzieć wszystkiego. Warto stworzyć holistyczne podejście i wykorzystać różne sektory, by uświadamiać opiekunów, zaczynając od szkół rodzenia czy przychodni. Nauczyciele w żłobkach i przedszkolach również powinni mieć narzędzia do wspierania rodziców w tym zakresie. Kluczowe jest wykorzystanie sztucznej inteligencji na naszą korzyść do blokowania szkodliwych mechanizmów. Polecam raz jeszcze kampanię Deutsche Telekom, ponieważ ona otwiera oczy na to, jak ogromne mogą być konsekwencje jednego niewinnego zdjęcia z wakacji.
W dobie sztucznej inteligencji prywatność naszego dziecka nie kończy się na naszej tablicy na Facebooku. Ona się tam dopiero zaczyna jako dane dla globalnych modeli AI. Generatywny sharenting pokazuje, że raz wrzucone zdjęcie może żyć własnym niekontrolowanym życiem przez dekady. Zanim więc kolejny raz zechcemy podzielić się cyfrowym uśmiechem naszych pociech, zadajmy sobie pytanie, czy to zdjęcie jest warte ryzyka kradzieży cyfrowej tożsamości? Pamiętajmy, że bezpieczeństwo w sieci to nie tylko silne hasła. To przede wszystkim nasza odpowiedzialność za tych, którzy sami o swój wizerunek jeszcze zadbać nie potrafią. Moim gościem była Joanna Szumiło-Jackowska, nauczycielka SAIL International School i doktorantka w szkole doktorskiej Uniwersytetu Szczecińskiego. Dziękuję za rozmowę.
Joanna Szumiło-Jackowska: Dziękuję za rozmowę.
Joanna Szumiło-Jackowska: Dziękuję za rozmowę.

Radio Szczecin