W niewłaściwych rękach to może być bardzo niebezpieczne narzędzie - dziekan Wydziału Inżynierii Mechanicznej i Mechatroniki ZUT mówi o sztucznej inteligencji.
Prof. Mirosław Pajor skomentował w "Rozmowie pod krawatem" przyjęcie przez Parlament Europejski unijnego aktu o sztucznej inteligencji, który ma zapobiec nadużyciom w stosowaniu tego narzędzia. Zdaniem Pajora - to dobrze, że pojawiają się takie regulacje.
- W rękach złych osób może to przybrać postać niebezpieczeństwa typu manipulacja. Jest to niezwykle sprawna maszyna do odczytywania naszych myśli i ukierunkowania naszych pragnień; zakupów czy oddziaływań politycznych. Regulacje prawne muszą się pojawić i legislacja musi podążać za technologią, bo technologia stwarza mechanizmy do manipulacji ludźmi - podkreślił.
Regulacje zabraniają m.in. używania sztucznej inteligencji do manipulacji ludzkim zachowaniem czy wykorzystywania słabych punktów ludzi, a także do rozpoznawania emocji w miejscu pracy i szkole.
Materiały stworzone przy jej użyciu będą musiały być odpowiednio oznaczone.
- W rękach złych osób może to przybrać postać niebezpieczeństwa typu manipulacja. Jest to niezwykle sprawna maszyna do odczytywania naszych myśli i ukierunkowania naszych pragnień; zakupów czy oddziaływań politycznych. Regulacje prawne muszą się pojawić i legislacja musi podążać za technologią, bo technologia stwarza mechanizmy do manipulacji ludźmi - podkreślił.
Regulacje zabraniają m.in. używania sztucznej inteligencji do manipulacji ludzkim zachowaniem czy wykorzystywania słabych punktów ludzi, a także do rozpoznawania emocji w miejscu pracy i szkole.
Materiały stworzone przy jej użyciu będą musiały być odpowiednio oznaczone.
- W rękach złych osób może to przybrać postać niebezpieczeństwa typu manipulacja. Jest to niezwykle sprawna maszyna do odczytywania naszych myśli i ukierunkowania naszych pragnień; zakupów czy oddziaływań politycznych. Regulacje prawne muszą się pojawić i legislacja musi podążać za technologią, bo technologia stwarza mechanizmy do manipulacji ludźmi - podkreślił.