Sztuczna Inteligencja coraz częściej podejmuje za nas decyzje, problem w tym, że nie wiemy, jak do nich dochodzi i to właśnie ma się zmienić. Rząd przyjął projekt polskiej ustawy o sztucznej inteligencji, która ma wprowadzić większą przejrzystość i kontrolę nad algorytmami. O tym, co to oznacza w praktyce powie nam nasz gość Krzysztof Tumielewicz z Kancelarii Adwokackiej Tumielewicz.
Sztuczna inteligencja coraz częściej podejmuje za nas decyzję. Decyduje o tym, co widzimy w mediach społecznościowych, jaką ofertę ubezpieczenia dostaniemy, a czasem nawet o tym, czy bank przyzna nam kredyt. Problem w tym, że zazwyczaj nie mamy pojęcia, jak te decyzje powstają. Algorytmy działają często jak nieprzejrzysty cyfrowy mechanizm. Widzimy gotowy wynik, ale nie znamy drogi, która do niego doprowadziła. I właśnie to ma się zmienić. Rząd przyjął projekt polskiej ustawy o systemach sztucznej inteligencji, a 9 kwietnia 2026 roku projekt został wniesiony do Sejmu. To ważny moment, bo technologia zyskuje konkretne ramy prawne, a era nieuchwytnych algorytmów powoli dobiega końca. Dziś sprawdzimy, co to może oznaczać dla nas zwykłych ludzi. Moim gościem jest adwokat Krzysztof Tumielewicz z kancelarii Prawnej Tumielewicz, który na co dzień zajmuje się prawem i nowymi technologiami.
Panie Mecenasie, co to za ustawa, po co powstała i dlaczego właśnie teraz, wiosną 2026 roku stała się tak pilnym tematem dla polskiego rządu?
Krzysztof Tumielewicz: Jest to konsekwencja regulacji unijnych, które nakładają na Polskę obowiązek wprowadzania tych przepisów do prawa krajowego i odpowiada to na ogólną praktykę w Unii Europejskiej i europejski AI Akt.
Co tak naprawdę znajduje się w tej ustawie?
Krzysztof Tumielewicz: Ustawa próbuje uregulować zasady działania i korzystania z tak zwanej sztucznej inteligencji. Z takich ważniejszych zapisów jest to powołanie komisji, która będzie rozpoznawała wnioski, ewentualnie skargi osób, które byłyby niezadowolone z procedur z danych modeli sztucznej inteligencji, które są wykorzystywane na przykład w bankowości, w medycynie czy w innych wrażliwych obszarach. Wprowadza się też takie modele treningowe, zwane jako piaskownice, gdzie będzie można trenować pewne modele, które mogą nieść za sobą jakieś ryzyko, na przykład zarzutów co do korzystania ze sztucznej inteligencji w sposób kontrowersyjny.
A jak te przepisy mają się do danych treningowych, na których uczą się algorytmy sztucznej inteligencji?
Krzysztof Tumielewicz: Model zakłada możliwość kontroli tego, co robią poszczególne modele sztucznej inteligencji, zwłaszcza jeśli mówimy o obszarach, w których jest ona wykorzystywana do rozpoznawania wniosków, procesów rekrutacyjnych, poznawania wniosków kredytowych, wykorzystywania na kanwie, na przykład prawa medycznego i mówimy o tym, że jeżeli ktoś by się poczuł na przykład dyskryminowany lub uznałby, że są stosowane praktyki manipulacyjne, to po pierwsze komisja będzie mogła się temu przyglądać i ewentualnie interweniować podejmując na przykład decyzję o wstrzymaniu takiego modelu. A ponadto osoby, które miałyby wątpliwości co do sposobu funkcjonowania określonego modelu będą mogły złożyć skargę do tej komisji. Jeszcze taka kolejna rzecz, która jest ważna, to stworzenie piaskownic, czyli takiego środowiska kontrolowanego, w którym na przykład jakiś podmiot, jakiś startup, który będzie chciał wprowadzić pewien model sztucznej inteligencji, będzie mógł sprawdzić jak to funkcjonuje pod okiem komisji po to, żeby uzyskać stanowisko, czy jest to zgodne z obowiązującymi regulacjami, czy nie narusza to praw osób trzecich i to ma spowodować, że będzie jakaś kontrola nad tym, co poszczególne modele realizują.
Czyli jak rozumiem, to będzie taki trochę polski szeryf od sztucznej inteligencji, to oznacza, że będziemy mogli się do tej komisji zgłosić w celu odwołania się od na przykład decyzji jakiejś, którą podejmie sztuczna inteligencja w sprawach, które będą nas dotyczyć?
Krzysztof Tumielewicz: No tak, sztuczna inteligencja jest ogromnym narzędziem, które może być bardzo przydatne w wielu obszarach naszej działalności, ale które może też wywoływać bardzo daleko idące konsekwencje. Jeśli złoży pan na przykład wniosek rekrutacyjny na dane stanowisko pracy albo wniosek kredytowy do banku i sztuczna inteligencja poza działaniem ludzi negatywnie rozpatrzy pana wniosek, będzie pan miał prawo złożenia skargi do komisji, która przeanalizuje działanie logarytmu i oceni, czy nie ma w nim zapisów dyskryminujących albo błędów, które powodują na przykład, że w sposób niesłuszny został pan potraktowany albo decyzja jest wadliwa. Dzisiaj tak naprawdę pozostaje to poza kontrolą, co uważam, że nie jest do końca słuszne. Czyli można by powiedzieć, że z jednej strony będzie to taki żandarm, a z drugiej strony też, przynajmniej w założeniu, partner, który będzie wspierał, kontrolował, ale też ustalał pewne zasady, według których te modele będą mogły funkcjonować.
Przywołał pan przykład rekrutacji. Wysyłamy czasami CV na maila do firmy, do której chcielibyśmy się dostać i w przypadku, w którym rekruter sprawdza CV przesłane przez kandydata przy pomocy sztucznej inteligencji, były próby, w którym kandydat używając białego koloru czcionki wpisywał informacje gdzieś po prostu na kartce mówiącą jak gdyby tej sztucznej inteligencji, że jest się dobrym kandydatem i że trzeba dać odpowiedź pozytywną dla przyjęcia na dane stanowisko. Taka próba trochę oszukania rekrutera i pracodawcy. Czy ta ustawa też będzie regulowała takie sytuacje?
Krzysztof Tumielewicz: Ustawa myślę, że będzie regulowała, czy taki jest kierunek proponowanych zmian, żeby mogły te modele funkcjonować w sposób taki jak najbardziej transparentny, sprawiedliwy i w sposób, który nie będzie krzywdził czy dyskryminował osób, które na przykład biorą udział w takiej rekrutacji. Po to między innymi mowa jest o komisji, która będzie mogła zbierać ewentualne skargi, uwagi, analizy, będzie mogła się przyglądać, będzie zatrudniała czy współpracowała z osobami, które mają wiedzę i techniczną, i merytoryczną z danego działu i tego typu na przykład praktyki budzące wątpliwości będą mogły być wychwytywane i będą mogły być korygowane. Będą mogły być dawane wytyczne, że należy na to zwrócić uwagę, zmienić. No jest szereg okoliczności czy zagadnień, na które warto jest zwracać uwagę, poczynając choćby od ochrony tajemnicy przez procedury, według których się to odbywa, dane, które są pozyskiwane, prawa autorskie, o których pan mówi. Dziś pozostaje to wszystko pod takim znakiem zapytania. Nie wiemy, nieznane są źródła, z których korzysta sztuczna inteligencja. Mówi się też o tym, że jeśli się pozyskuje teksty na przykład przy wykorzystaniu sztucznej inteligencji, to one powinny być też w taki sposób oznaczane, bo bardzo często są to tak zwane plagiaty. Czyli zbitka różnych danych zaciągniętych przez dany model sztucznej inteligencji z innych, nie wiem, stron internetowych, publikacji bez oznaczenia na przykład autorów tego, co może na przykład naruszać prawa autorskie. I myślę, że między innymi taka komisja czy organy nadzorcze powinny kontrolować, móc przyjmować zgłoszenia od podmiotów, które na przykład uważają, że wykorzystano ich treści bez ich zgody. Więc ja uważam, że kierunek jest trafny. Jak w praktyce on będzie działał, to życie pokaże.
Wyłania się tutaj sytuacja na uczelniach i pisanie prac dyplomowych ze sztuczną inteligencją.
Krzysztof Tumielewicz: Dzisiaj sztuczna inteligencja jest bardzo powszechnie wykorzystywana do działań marketingowych, czy do tak zwanego copywritingu, publikacji różnych tekstów, gdzie przecież ona tego nie wymyśla, tak? Czyli to, co nam wyrzuca czy odpowiada na nasze zapytania sztuczna inteligencja, pochodzi z źródeł innych autorów i z prawdopodobieństwem bliskim pewności jest to wykorzystywane bez zgody autora. Jeśli się takie zapytanie sformułuje wprost do na przykład jakiegoś artykułu, na przykład Radia Szczecin, no to wtedy sztuczna inteligencja ograniczy się do streszczenia i wskazania, że nie może naruszać praw autorskich. Ale kiedy prosimy o pewne opracowanie kompleksowe i ona będzie korzystała z różnych źródeł, to powinno być to oznaczane, bo tutaj jest ewidentne ryzyko plagiatu na przykład, tak? Czy bezprawnego wykorzystania cudzych treści.
A jak ta ustawa będzie odnosiła się do firm w Polsce w praktyce?
Krzysztof Tumielewicz: Ten model jest jest porównywalny trochę do wprowadzania RODO w Polsce, gdzie na początku było dużo zarzutów związanych z nałożeniem na firmy, podmioty, szeregu obowiązków. Natomiast praktyka pokazała, że był to dobry kierunek zmian, który usystematyzował sposób ochrony danych osobowych i myślę, że można się liczyć z tym, że firmy, które korzystają ze sztucznej inteligencji będą zobowiązane do podjęcia pewnych działań systematyzujących sposób korzystania. Natomiast myślę, że intencja jest taka, aby zabezpieczało to nas jako petentów, którzy będą korzystali lub będą przechodzili przez procesy, w których będzie uczestniczyła sztuczna inteligencja. Więc miejmy nadzieję, że to te ewentualne dodatkowe obowiązki będą służyły nam, którzy się będziemy mierzyli ewentualnie ze sztuczną inteligencją, czy w służbie zdrowia, czy w bankowości, czy rekrutując się na dane stanowisko pracy.
A co grozi firmom, które nie będą wdrażały tych przepisów?
Krzysztof Tumielewicz: Mówi się o tym, że komisja będzie mogła nakładać sankcje. Będzie mogła również wstrzymywać działanie modeli, jeśli stwierdzi ich niezgodność z obowiązującymi przepisami lub za naruszenie praw osób trzecich, więc będzie mowa o tym, że będą możliwe do nakładania sankcje.
A wiadomo coś mniej więcej jakie to będą sankcje?
Krzysztof Tumielewicz: Ja takiej wiedzy nie mam na dzisiaj. Nie mogę jakby rzeczowo odpowiedzieć na to pytanie.
Na zakończenie chciałem się zapytać jak te przepisy mogą wpłynąć na rozwój innowacji w Polsce?
Krzysztof Tumielewicz: Jeśli będą stosowane w sposób zdroworozsądkowy i niezbyt radykalny, no to myślę, że one powinny usystematyzować i uporządkować sposób korzystania ze sztucznej inteligencji. Na pewno regulacje mogą mieć wpływ na spowolnienie rozwoju sztucznej inteligencji. Są różne modele spotykane na świecie. Na przykład w USA ten model jest bardziej otwarty, nie wiem, w Japonii, bazujący na takich zasadach etyki, a nie sztywnych regulacjach. Natomiast Unia Europejska przyjęła, że chce uregulować sposób i model korzystania ze sztucznej inteligencji. Można pokusić się o stwierdzenie, że może mieć to pewien wpływ na wyhamowanie rozwoju. Niemniej myślę, że taki też w żaden sposób niekontrolowany i nieograniczony sposób funkcjonowania sztucznej inteligencji jest bardziej niebezpieczny niż próba uregulowania tego na oczywiście zdrowych zasadach i w sposób, który rynek będzie w stanie zaakceptować.
Moim gościem był adwokat Krzysztof Tumielewicz z Kancelarii Adwokackiej Tumielewicz. Dziękuję bardzo.
Krzysztof Tumielewicz: Dziękuję również

Radio Szczecin