Dziennik Gazeta Prawna: Sztuczna inteligencja na straży praw konsumentów
UOKiK zaprzągł system AI do pomocy przy wykrywaniu klauzul abuzywnych w umowach. Teraz przygotowuje podobne narzędzie do wykrywania oszukańczych interfejsów Urząd Ochrony Konkurencji i Konsumentów wykorzystuje narzędzie informatyczne oparte na sztucznej inteligencji do wstępnej analizy wzorców umownych pod kątem niedozwolonych postanowień stosowanych przez przedsiębiorców w kontaktach z konsumentami. Jak wyjaśnia nam UOKiK, jest to część projektu współfinansowanego ze środków unijnych. System AI przegląda wzorce umów pozyskane w wyniku działań własnych urzędu lub na skutek złożonych zawiadomień. W zależności od dokumentu jest to kilka lub kilkanaście stron. – Narzędzie, z którego korzystamy, analizuje klauzule na podstawie wykazu podobnych postanowień i dotychczasowych wyroków Sądu Ochrony Konkurencji i Konsumentów. Bez wątpienia pozwala to przyspieszyć pracę – narzędzie wskazuje, które fragmenty wzorców umów wymagają szczególnej uwagi – stwierdza Kamila Guzowska z biura prasowego UOKiK.
Więcej w: Sztuczna inteligencja na straży praw konsumentów (dostęp płatny)
Rzeczpospolita: Na drodze do głosowania w internecie
Wybory powszechne to sprawa najwyższej wagi, skuteczny atak na system głosowania może mieć konsekwencje trudne do przewidzenia. Pomysł zorganizowania wyborów powszechnych przez internet pojawia się cyklicznie po kolejnych wyborach i z taką samą regularnością poddawany jest fundamentalnej krytyce. Krytycy podnoszą zarzuty, których z pewnością nie można lekceważyć. Zagwarantowanie odpowiedniego poziomu bezpieczeństwa systemu elektronicznego głosowania tak, aby wykluczał on możliwość nieuprawnionej ingerencji w proces zbierania i liczenia głosów, jest prawdziwym wyzwaniem. Jest to wszakże problem natury technicznej, taki, jaki można pokonać przy zaangażowaniu odpowiednio dużych środków.
Więcej w: Na drodze do głosowania w internecie (dostęp płatny)
Rzeczpospolita: Niepewność prawa przeszkadza AI
Polskie firmy boją się o bezpieczeństwo danych i skutki prawne rozwoju generatywnej sztucznej inteligencji. Z raportu Deloitte wynika, że mimo pewnych obaw polskie firmy widzą w w sztucznej inteligencji szansę na rozwój i zdobycie przewagi nad konkurencją. Na potrzeby badania firma zadała szereg pytań 500 dyrektorom finansowym z 15 krajów naszego regionu. Dotyczyły one kluczowych korzyści i wyzwań związanych z rozwojem AI. Wśród 84 respondentów z Polski wyraźnie widoczna jest większa świadomość wagi sztucznej inteligencji w strategii biznesowej – jako bardzo ważną wskazało ją 6 proc., jako ważną – 33 proc. – podczas gdy średnia dla wszystkich krajów wynosiła odpowiednio 5 proc. i 16 proc. Analogicznie – za nieważną uznaje ją tylko 17 proc. polskich respondentów, za mało ważną – 18 proc. Średnia odpowiedzi w regionie wynosi zaś 27 proc. i 26 proc. Jednak jeśli chodzi o wdrażanie AI w organizacjach, Polska pozostaje nieco poniżej średniej – niemal co czwarta firma eksperymentuje z tą technologią, a 8 proc. rozpoczęło implementowanie jej do swoich strategii. Liderami są Czechy i Słowacja, gdzie suma tych wyników wynosi 42 proc. (w Polsce jedynie 32 proc.). W krajach bałtyckich odsetek ten sięga 40 proc., a średnio w regionie – 36 proc.
Więcej w: Niepewność prawa przeszkadza AI (dostęp płatny)
Rzeczpospolita: AI przewidzi chorobę, śmierć i czy będziesz bogaty
Naukowcy z Danii wykorzystują sztuczną inteligencję i dane milionów ludzi, aby przewidzieć, co wydarzy się w życiu danego człowieka i kiedy przyjdzie jego kres. To najdokładniejszy dotąd i najbardziej kompleksowy tego typu model. Sztuczna inteligencja od lat przewiduje pogodę, trzęsienia ziemi, nawet możliwość popełnienia w danym miejscu przestępstwa. Ale wiarygodne prognozy dotyczące życia człowieka i czasu jego śmierci to coś nowego. Duńscy twórcy modelu life2vec badają możliwości systemów głębokiego uczenia maszynowego do przewidywania szerokiego zakresu „wydarzeń życiowych” zdrowotnych lub społecznych. – To bardzo ogólne ramy umożliwiające prognozowanie życia ludzkiego. Można przewidzieć wszystko, jeśli dysponuje się danymi do wyszkolenia AI – powiedział AFP Sune Lehmann, profesor na Duńskim Uniwersytecie Technicznym (DTU) i jeden z autorów badania opublikowanego niedawno w czasopiśmie „Nature Computational Science”.
Więcej w: AI przewidzi chorobę, śmierć i czy będziesz bogaty (dostęp płatny)
Rzeczpospolita: Sztuczna inteligencja wspiera dezinformację
Fałszywe materiały wideo z prawdziwymi politykami, influencerami czy szefami firm to już poważne zagrożenie, na które trzeba szybko znaleźć antidotum. Podczas wyborów w kilku krajach członkowskich już widać było fałszywe treści i reklamy jak deepfake. – Ich stworzenie przy użyciu sztucznej inteligencji zajmuje 30 minut – mówi wiceprzewodnicząca Komisji Europejskiej Vera Jourova. – Nie mamy danych, żeby ocenić, czy wpłynęło to radykalnie na wynik wyborów. Ale gdyby to zostało wykorzystane na masową skalę, moglibyśmy zapomnieć o wolnych i uczciwych wyborach. Deepfaki to sztucznie generowane lub manipulowane obrazy, które mogą uchodzić za autentyczne. – Naciskamy na platformy, na których mogą pojawiać się takie treści, aby albo je oznaczyli, albo usunęli – mówiła Jourova w wywiadzie dla Bloomberga.
Więcej w: Sztuczna inteligencja wspiera dezinformację (dostęp płatny)
Rzeczpospolita: Współtwórca ChatGPT rzuca wyzwanie Google’owi
Kierowany przez Aravinda Srinivasa start-up Perplexity chce odesłać tradycyjną wyszukiwarkę internetową do muzeum. W projekt zainwestował już Jeff Bezos. Atak na niemal monopolistyczną pozycję Google’a na rynku wyszukiwarek zaczął się, gdy na rynku pojawił się ChatGPT, a Microsoft zaimplementował mechanizmy od OpenAI do własnej wyszukiwarki. Teraz do ofensywy przechodzą kolejni gracze, w tym Perplexity – start-up opracował narzędzie, które notuje już ponad 50 mln odwiedzin miesięcznie. Pomysł firmy okazał się magnesem na inwestorów, a pieniądze na ten projekt wyłożył m.in. Jeff Bezos, założyciel Amazona. Kilka tygodni temu oszacowano, iż spółka Aravinda Srinivasa może mieć 1 mld dol. na koncie z przeznaczeniem na dalszy dynamiczny rozwój i walkę z gigantami w tej branży.
Więcej w: Współtwórca ChatGPT rzuca wyzwanie Google’owi (dostęp płatny)
Puls Biznesu: Ekspertka: AI jest niesprawiedliwa i powiela nierówności tak samo, jak my
Często słyszymy, że sztuczna inteligencja jest obiektywna i sprawiedliwa. Ale ponieważ algorytmy karmione są danymi skrzywionymi przez nieobiektywną rzeczywistość - i ona będzie te uprzedzenia powielać. Dopóki społeczeństwo będzie niesprawiedliwe, nieinkluzywne i przesiąknięte stereotypami - dopóty AI, która ma odzwierciedlać rzeczywistość, będzie pogłębiała nierówności - zauważa badaczka z ALK dr Anna Górska.
Więcej w: Ekspertka: AI jest niesprawiedliwa i powiela nierówności tak samo, jak my (dostęp płatny)
Gazeta Wyborcza: Wielki wyciek danych u amerykańskiego giganta. Wypłynęły dane ponad 70 milionów klientów
Imiona i nazwiska, daty urodzenia, adresy e-mail oraz hasła dostępu - między innymi takie dane wrażliwe klientów amerykańskiego przedsiębiorstwa AT&T wypłynęły do sieci. Firma informuje, że dotkniętych mogło zostać nawet 73 mln klientów. AT&T podjęło pierwsze kroki w celu zażegnania kryzysu. Tymczasem media przypominają, że to nie pierwszy duży problem, z jakim musiało zmierzyć się w tym roku przedsiębiorstwo. Dane wrażliwe klientów AT&T pojawić miały się w tzw. dark webie - niewidzialnej części internetu, do której dostęp nie jest możliwy z poziomu standardowych wyszukiwarek, a która często kojarzona jest z nielegalną działalnością. Dotychczas potwierdzono, że wyciek objął informacje około 7,6 mln aktywnych użytkowników oraz 65,4 mln byłych klientów. AT&T ocenia, że ujawniony zestaw danych pochodzi najpóźniej z 2019 roku. Firma nie znalazła dotychczas dowodów wskazujących na nieuprawniony dostęp do informacji. Nie wiadomo, czy dane wypłynęły z samego przedsiębiorstwa, czy od jednego z partnerskich dostawców.
Więcej w: Wielki wyciek danych u amerykańskiego giganta. Wypłynęły dane ponad 70 milionów klientów (dostęp płatny)