stephen-hawking

Stephen Hawking powiedział: "Transcendencja (film) zwraca uwagę na konsekwencje sztucznej inteligencji - ale czy traktujemy SI wystarczająco poważnie?"

Sukces w tworzeniu sztucznej inteligencji, może być największym wydarzeniem w historii ludzkości. Niestety może być też ostatnim. Chyba, że nauczymy się jak uniknąć ryzyka.

"Transcendencja" puszczana w kinach z Johnnym Deep'em i Morganem Freeman'em w rolach głównych pokazuje starcie wizji przyszłości ludzkości. Ostrzega, by odrzucić pojęcie inteligentnych maszyn jako wyłącznie science fiction.

Badania nad Sztuczną Inteligencją posuwają się bardzo szybko do przodu. Ostatnio spotykamy się z coraz większą dominacją SI. Mamy samochody, które same jeżdżą, komputery wygrywające teleturnieje,osobistych asystentów cyfrowych (np GPS). Są to objawy praktycznie niezauważalnego dla nas wyścigu zbrojeń w zakresie IT (Technologia Informacyjna) napędzanego przez bezprecedensowe inwestycje oparte o silne podstawy teoretyczne. Obecne osiągnięcia i tak bledną wobec tego, co czeka nas na przestrzeni najbliższych dekad.

Potencjalne skutki są ogromne:

- Wszystko, co cywilizacja będzie miała do zaoferowania będzie wynikiem sztucznej inteligencji

- Nie będziemy w stanie przewidzieć tego, co możemy osiągnąć zapewniając SI odpowiednie narzędzia

- Możemy też uniknąć wojen, chorób i ubóstwa, co znalazłoby się na liście życzeń każdego z nas.

hal

Sukces w tworzeniu sztucznej inteligencji, może być największym wydarzeniem w historii ludzkości.

W najbliższym czasie, mocarstwa zbrojne zaczną na szeroką skalę wprowadzać systemy broni autonomicznej, które mogą samodzielnie wybierać i eliminować cele. Narody Zjednoczone i Fundacja Ochrony Praw Człowieka chcą traktatu zakazującego wprowadzenie tego typu broni.

 W perspektywie średnioterminowej, jak podkreślił Erik Brynjolfsson i Andrew McAfee w "The Second Machine Age" SI może przynieść naszej ekonomii wielkie zyski, ale także równie wielkie straty.

Patrząc dalej w przyszłość, nie istnieją żadne zasadnicze granice tego, co można osiągnąć. Nie ma fizycznego prawa, które wyklucza zorganizowanie się układu cząstek w taki sposób, by mogły wykonywać bardziej zaawansowane obliczenia od układu cząstek w ludzkim mózgu. Wybuchowa przemiana jest możliwa, choć może to rozegrać się inaczej niż w filmie: Choćby tak, jak przedstawił to Irving Good w 1965 - maszyny z ponadludzką inteligencją mogą nieustannie ulepszać projekty samych siebie. Mogłoby to wywołać coś, co Vernor Vinge nazwał "osobliwością technologiczną", a postać grana przez Dep'a "transcendencją".

pg-50-depp-1-alcon

Możemy sobie wyobrazić taką technologie, która potrafi przechytrzyć rynek finansowy, wynaleźć ludzkich badaczy, wymanewrować przywódców i rozwijać bronie, których nawet nie jesteśmy w stanie zrozumieć. Natomiast krótkoterminowy wpływ SI zależy od tego, kto ją kontroluje. Długoterminowy wpływ zależy od tego, czy SI w ogóle można kontrolować.

W obliczu możliwych korzyści z nieoszacowanych zysków i strat, eksperci z pewnością robią wszystko, by zapewnić jak najlepszy wynik, tak? Błąd. Jeśli zaawansowana obca cywilizacja wyśle nam wiadomość: "Przylecimy za kilkadziesiąt lat" odpowiemy po prostu "OK, zadzwońcie, jeśli będziecie na miejscu - zostawimy włączone światła"> Prawdopodobnie nie - ale to jest mniej więcej to samo, co dzieje się ze sztuczną inteligencją. Mimo, że mamy do czynienia z potencjalnie najlepszą i jednocześnie najgorszą rzeczą, jaka może przytrafić się ludzkości, prowadzimy zbyt mało poważnych badań poświęconych tej tematyce poza bez dochodowymi instytucjami takimi jak: Cambridge Centre for Study of Existential Risk, Future of Humanity Institute, Machine Inteligence Institute, Future of Life Institute.

Każdy z nas powinien zadać sobie pytanie: co możemy teraz zrobić, aby zwiększyć szanse na czerpanie korzyści i uniknąć zagrożeń? 

Źródło: The Independent

(Visited 31 times, 1 visits today)