– Pozwolę sobie na optymistyczną anegdotę: w całkiem dużej korporacji wprzęgnięto algorytmy sztucznej inteligencji do podejmowania kluczowych decyzji i okazało się, że idzie to słabo. Przynajmniej niektóre kategorie specjalistów wciąż mogą się czuć niezbędne – komentował Marcin Bochenek.
Jeżeli zatem nie ma jednoznacznych powodów do obaw o niekorzystne zmiany społeczno-ekonomiczne z powodu wdrażania sztucznej inteligencji, to może należy myśleć o zagrożeniach związanych z cyberbezpieczeństwem? Co się stanie z flotami autonomicznych samochodów, jeżeli inteligentne systemy nadzorujące zaatakują hakerzy?
– Kod zawsze może zawierać błąd, więc ryzyko istnieje, ale wszystko zależy o jakim dokładnie obszarze zastosowania mówimy. Jeżeli rzeczywiście o systemach sztucznej inteligencji, których zadaniem jest m.in. uczenie się i wnioskowanie (a nie tylko sterowanie urządzeniem), to efektem ataku jest raczej unieruchomienie systemu, niż przejęcie nad nim kontroli. Algorytmy AI to są rozwiązania, w przypadku których nie łatwo przewidzieć efekty wrogiej ingerencji – mówił kolejny dyskutant, dr Adam Kozakiewicz, szef Zakładu Bezpieczeństwa Sieci i Informacji w NASK. – Zastanawiając się nad tym, nie musimy zresztą wybiegać w przyszłość i w obszar AI. Chwila, której należało się obawiać już nastąpiła. Moduły GSM stają się powoli standardem w nowych pojazdach, a nie wydaje się, aby producenci dbali o właściwą separację kluczowych dla bezpieczeństwa jazdy systemów sterujących podzespołami samochodu od podłączonych do sieci systemów rozrywki pokładowej. Z niepokojem czekam na raport o wynikających z tego konsekwencjach. Tutaj zagrożenia cyberatakami są jak najbardziej realne.
Jeżeli zaś chodzi o AI sensu stricto, to – według dr Adama Kozakiewicza – mniejszym problemem będą działania przestępców, a większym niedoskonałości systemów uczenia maszynowego, które (na dobrą sprawę) nie zawsze dobrze rozumiemy. Istnieje obawa, czy nie będzie praktyką wdrażanie rozwiązań skutecznych doraźnie, które jednak w przyszłości mogą rozwijać się w trudnym do przewidzenia kierunku. Z mniej lub bardziej groźnymi efektami w zależności od obszaru zastosowania. Jak temu przeciwdziałać?
Dr Jan Chorowski z Instytutu Informatyki Uniwersytetu Wrocławskiego zgodził się, że na przykład błędy w definiowaniu podstaw uczenia maszynowego, oczywiście, muszą dać negatywne efekty. Zapewnienie właściwej bazy w przypadku bardziej skomplikowanych dziedzin i złożonych zastosowań, rzeczywiście będzie trudne. W kontekście praktycznego zastosowania AI nie musi to być kluczowe.
– Jeżeli rozpatrzylibyśmy na przykład inteligentny system translacyjny, który umożliwia mi zarezerwowanie pokoju hotelowego w Chinach, to jego ewentualne niedoskonałości nie spowodują poważnych szkód. Nawet więcej: dają szansę na finalizację transakcji, a więc mogą być efektywne biznesowo i generować zyski dla twórcy czy operatora.