PAP nauka i zdrowie
Użytkownik:
Hasło:
Prof. Alojzy Nowak rektorem Uniwersytetu Warszawskiego na kolejną kadencję ...     "Rz": Wątpliwy doktorat rektora Collegium Humanum ...     Dobry piłkarz potrafi się powstrzymać ...     Eksperci: Polska może mieć wkład w system leczenia chorób rzadkich w UE ...     Przeszczep skóry pozwoli lepiej zadbać o inne przeszczepy ...     Ekspert: mamy wciąż wysoki wskaźnik amputacji kończyn dolnych, ale próbujemy to zmienić ...     Arabia Saudyjska/ Tunel lawowy Umm Jirsan był zamieszkiwany przez tysiące lat ...     Śmieciowe jedzenie może w młodości uszkadzać mózg ...     Eksperci: zmiany klimatu są coraz groźniejsze dla zdrowia ludzi ...     HDL-C i ferrytyna pomogą przewidzieć „długi Covid” ...    

W. Brytania/ Ekspert: sztuczna inteligencja (AI) może w ciągu dwóch lat być zdolna, by zabijać ludzi


Systemy sztucznej inteligencji (AI) mogą w ciągu zaledwie dwóch lat stać się wystarczająco potężne, by zabić wielu ludzi, więc przez ten czas trzeba znaleźć sposób na ich kontrolowanie - ostrzegł Matt Clifford, doradca brytyjskiego premiera Rishiego Sunaka ds. sztucznej inteligencji.

Clifford, który pomaga premierowi w utworzeniu rządowej grupy zadaniowej ds. sztucznej inteligencji, powiedział, że jeśli ludzkość nie znajdzie sposobu na kontrolowanie tej technologii, decydenci powinni być przygotowani na szereg zagrożeń, od cyberataków po tworzenie broni biologicznej.

"Jeśli spróbujemy stworzyć sztuczną inteligencję, która jest bardziej inteligentna niż ludzie i nie będziemy wiedzieć, jak ją kontrolować, to stworzy to potencjał dla wszelkiego rodzaju zagrożeń teraz i w przyszłości. Słuszne, że powinno to być bardzo wysoko w programach rządzących" - powiedział w rozmowie z TalkTV. Jak dodał, tym co go w obecnej sytuacji najbardziej niepokoi, to fakt, że "ludzie, którzy budują najbardziej wydajne systemy (sztucznej inteligencji), swobodnie przyznają, że nie rozumieją dokładnie, w jaki sposób przejawiają one takie zachowania, jakie przejawiają".

Clifford został zapytany m.in. o oświadczenie podpisane w zeszłym tygodniu przez ponad 350 ekspertów zajmujących się sztuczną inteligencją, w tym szefa OpenAI, firmy odpowiedzialnej za stworzenie ChatGPT, w którym ostrzegli oni, że w dłuższej perspektywie istnieje również ryzyko, że technologia ta może doprowadzić do wyginięcia ludzkości.

"Ryzyko egzystencjalne, o którym jak sądzę, mówili autorzy listu, dotyczy tego (...), co się stanie, gdy skutecznie stworzymy nowy gatunek, inteligencję, która jest większa niż ludzka" - powiedział. Zapytany, w jakim czasie może to nastąpić, odparł, że spektrum czasowe wśród ekspertów od sztucznej inteligencji jest bardzo szerokie, ale w najbardziej skrajnej obecnie perspektywie, może to się stać w ciągu dwóch lat. Zastrzegł jednak, że nie ma na myśli zniszczenia całej ludzkości, lecz zdolności do zabijania wielu ludzi, a także, że niektórzy eksperci mówią o dekadach.

Clifford dodał, że te dwa lata to czas, w którym ludzkość musi znaleźć sposób na skuteczne kontrolowanie sztucznej inteligencji, zanim stanie się ona niemożliwa do opanowania. Podkreślił też, że sztuczna inteligencja ma potencjał, by stać się przytłaczającą siłą dobra - pod warunkiem, że znajdziemy sposoby na jej kontrolowanie. "Jeśli wszystko pójdzie dobrze, można sobie wyobrazić sztuczną inteligencję leczącą choroby, zwiększającą produktywność gospodarki, pomagającą nam osiągnąć gospodarkę neutralną pod względem emisji dwutlenku węgla" - powiedział.

Z Londynu Bartłomiej Niedziński (PAP)

bjn/ tebe/




Copyright Copyright © PAP SA 2011 Materiały redakcyjne, fotografie, grafy, zdjęcia i pliki wideo pochodzące z serwisów PAP stanowią element baz danych, których producentem i wydawcą jest Polska Agencja Prasowa S.A z siedzibą w Warszawie, i chronione są przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych. Z zastrzeżeniem przewidzianych przez przepisy prawa wyjątków, w szczególności dozwolonego użytku osobistego, ich wykorzystywanie dozwolone jest jedynie po zawarciu stosownej umowy licencyjnej. PAP S.A. zastrzega, iż dalsze rozpowszechnianie materiałów, o których mowa w art. 25 ust. 1 pkt. b) ustawy o prawie autorskim i prawach pokrewnych, jest zabronione.