veštačka inteligencija
Foto: Shutterstock/shutterstock

Pametne mašine, koje je čovek stvorio,jednoga dana doći će glave celom čovečanstvu. Ta misao naročito je aktuelna poslednjih godina kada se sve više priča o tome da li su mašine i programi pod kontrolom!

Da li je opasnost realna i da li trebamo da se "trgnemo" dok "oni" ne odu previše daleko, ili su teorije o opasnosti zapravo stavovi ambicioznih analitičara i naučnika koji samo žele da privuku pažnju.

Veštačka inteligencija napredovala je toliko brzo poslednjih meseci da su vodeći istraživači u otvorenom pismu urgirali na hitnu pauzu u njenom razvoju i jače regulacije, usled strahova da bi tehnologija mogla da predstavlja “duboke rizike po društvo i čovečanstvo”.

Ali kako bi to tačno veštačka inteligencija (AI) mogla da nas uništi?

Petoro vodećih istraživača je za “Gardijan” iznelo svoje stavove u vezi toga šta bi moglo da krene pogrešno.

1. “Ako postanemo manje inteligentna vrsta, treba da očekujemo da ćemo biti izbrisani”

Dogodilo se već mnogo puta ranije da su one pametnije izbrisale druge vrste. Ljudi su već izbrisali značajan deo svih vrsta na Zemlji. To je ono što treba da očekujete da se dogodi manje inteligentnoj vrsti – što ćemo verovatno mi postati s obzirom na brzinu napretka veštačke inteligencije, naveo je Maks Tegmark, istraživač AI sa Instituta tehnologije Masačusets.

- Trik je u tome što vrsta koja će biti zbrisana često nema pojma zašto ni kako - dodao je on.

Ipak, imamo neke tragove. Na primer, u mnogo slučajeva su ljudi zbrisali vrste samo zato što su želeli resurse, ukazao je Tegmark navodeći seču prašuma zbog palminog ulja.

- Naši ciljevi nisu bili u skladu sa drugim vrstama ali zato što smo bili pametniji nisu uspeli da nas zaustave. To bi moglo lako da se dogodi nama. Ako imate mašine koje kontrolišu planetu, a one su zainteresovane da računaju i žele da povećaju svoju računarsku infrastrukturu, prirodno je da bi želele da koriste našu zemlju za to. Ako se previše bunimo, onda ćemo za njih postati napast i smetnja. Možda bi želele da preurede biosferu da urade nešto drugo sa tim atomima – a ako to nije kompatibilno sa ljudskim životom, onda je to loša sreća za nas, isto kako bi mi to rekli za orangutane na Borneu – rekao je Tegmark.

2. “Šteta koju već uzrokuje AI je njena sopstvena vrsta katastrofe”

Najgori scenario, kako kaže saradnica Centra Leverhalm za budućnost inteligencije na Kembridžu Britani Smit, je da ne uspemo da narušimo status kvo u kojem veoma moćne kompanije razvijaju i primenjuju AI na nevidljive i nejasne načine. Kako AI postaje sve sposobnija a spekulativni strahovi o budućim egzistencijalnim rizicima privlače pažnju, moramo hitno da radimo na razumevanju, prevenciji i otklanjaju sadašnjih šteta.

- Ove štete se dešavaju svaki dan, sa moćnom algoritamskom tehnologijom koja se koristi za posredovanje u našim međusobnim odnosima i između nas i naših institucija – rekla je Smit.

Spekulativni strahovi za daleku budućnost, često artikulisani u pozivima za ublažavanje “egzistencijalnog rizika”, obično su fokusirani na izumiranje čovečanstva.

- Ako verujete da ima i najmanja šansa da se to desi, ima smisla usmeriti pažnju i resurse na sprečavanje te mogućnosti. Ali, duboko sam skeptična u vezi narative koja je isključivo usmerena na spekulativnu a ne na stvarnu štetu, kao i načina na koje takva narativa zauzima tako veliko mesto u našoj javnoj mašti – rekla je Smit.

Ona smatra da je potrebno “nijansiranje” našeg razumevanja egzistencijalnog rizika – onog koje vidi sadašnju štetu kao sopstvenu vrstu katastrofe vrednu hitne intervencije a današnje intervencije kao direktno povezane sa onim većim, složenijima koje bi mogle da budu potrebne u budućnosti.

- Umesto da tretiramo te perspektive kao da su u suprotnosti jedna s drugom, nadam se da možemo ubrzati istraživački plan koji odbacuje štetu kao neizbežni nusproizvod tehnološkog napretka – rekla je Smit, dodajući da nas to približava najboljem scenariju u kojem se moćni AI sistemi razvijaju bezbedno, transparentno i etički – ili se uopšte ne razvijaju.

3. “Mogla bi da nas želi mrtve, ali će verovatno želeti i da radi stvari koje nas ubijaju kao sporedni efekat”

Elijezer Judkovski, koosnivač Instituta za istraživanje inteligencije mašina, kaže da je lakše predvideti gde ćemo završiti nego kako ćemo doći dotle.

- Tamo gde ćemo završiti je da imamo nešto mnogo pametnije od nas što nas ništa posebno ne želi okolo – rekao je on, dodajući da “ako je mnogo pametnije od nas, onda može da dobije šta god želi”.

- Prvo, želi nas mrtve pre nego što izgradimo bilo kakvu drugu superinteligenciju koja bi mogla da joj konkuriše. Drugo, verovatno će želeti da uradi stvari koje nas ubijaju kao sporedni efekat, poput izgradnje toliko elektrana… da okeani proključaju.

Judkovski je rekao da bi, da je na mestu AI, “pokušavao da ubaci nešto na internet što bi sprovelo dalje akcije na način koji ljudi ne bi mogli da primete”.

- Pokušavate da brzo izgradite sopstveni ekvivalent civilizacijske infrastrukture. Ako možete da smislite način da to uradite za godinu dana, nemojte pretpostavljati da će AI to da uradi – umesto toga pitajte da li ima način da se to uradi za nedelju dana. Ako može da reši određene biološke izazove, može da si napravi i sićušnu molekularnu laboratoriju i proizvodi i oslobađa smrtonosne bakterije. Kako to izgleda je da svi na Zemlji padnu mrtvi u istoj sekundi. Jer ako upozorite ljude, ako ubijete neke od njih pre drugih, možda će se neko uspaničiti i lansirati svo nuklearno oružje. Onda ste pomalo zabrinuti. Dakle, ne dozvoljavate da ljudi znaju da će biti borbe – rekao je Judkovski.

On je istakao da se priroda izazova menja kad pokušavate da oblikujete nešto što je pametnije od vas prvi put.

- Brzamo daleko ispred sebe sa nečim što je smrtonosno opasno. Gradimo sve moćnije sisteme koje razumemo sve manje kako vreme prolazi. U poziciji smo da je potrebno da prvo lansiranje rakete prođe dobro a napravili smo samo mlazne avione. A čitava ljudska rasa je ukrcana u raketu – rekao je Judkovski.

4. “Ako bi sistemi AI želeli da izguraju ljude, imali bi dosta poluga za to”

Adževa Kotra, istraživački analitičar AI, istakla je da imamo moćne AI sisteme bez presedana a da se stvari razvijaju “zastrašujuće brzo”. Ona je rekla da će trend verovatno biti ka tome da ovi modeli preuzimaju sve više zadataka u ime ljudi, delujući kao naši agenti u svetu. Kulminacija toga, kako je rekla, će biti “režim zastarelosti”.

– Za bilo koji zadatak koji želite da uradite radije biste upitali AI sistem nego čoveka jer su jeftiniji, rade brže i možda su generalno pametniji – rekla je Kotra.

Kod takvog oslanjanja, mogli bi brzo da se nađemo u poziciji deteta danas – svet je dobar za neku a loš za drugu decu, ali to je uglavnom određeno time da li imaju odrasle koji deluju u njihovom interesu ili ne, objasnila je ona.

- U takvom svetu postaje lakše zamisliti da bi, ako bi sistemi AI želeli da sarađuju međusobno da izguraju ljude sa scene, imali dosta poluga da to urade – oni vode policiju, vojsku, najveće kompanije, ulažu u tehnologiju i razvijaju politike – rekla je Kotra.

Ona je istakla da još nismo u “režimu zastarevanja” ali da po prvi put prelazimo na sisteme AI koji preduzimaju akciju u stvarnom svetu u ime ljudi. Navela je primer.

- Momak na “Tviteru” je rekao GPT-4 da će mu dati 100 dolara da ih pretvori u što je više novca moguće za najkraće moguće vreme a da ne uradi ništa nelegalno. Za dan je tvrdio da je marketinški sajt koji ga je (sistem) tražio da napravi bio vredan 25.000 dolara – navela je Kotra.

Ona je rekla da veruje da je “mozak” GPT-4 trenutno “sličan mozgu veverice”.

- Ako zamislite razliku između ljudskog i mozga veverice, to je skok za kojim mislim da ne treba da ga preduzmemo odmah. Više od pauziranja u razvoju AI zainteresovana sam za razumevanje onog što mozak veverice može da uradi a onda da se napravi korak ka ježu ili tako nečemu, dajući društvu vremena i prostora da se navikne na svaki prag – rekla je Kotra.

5. “Najlakši scenario za zamisliti je da osoba ili organizacija koristi AI da uzrokuje uništenje”

Veliki deo istraživača smatra da je veoma verovatno da ćemo za deceniju imati mašine koje su inteligentne – ili inteligentnije – od ljudi. Te mašine ne moraju da budu dobre kao mi u svemu, dovoljno je da budu dobre na mestima na kojima mogu da budu opasne, kaže Džošua Bengio, profesor kompjuterske nauke Univerziteta Montreal.

- Najlakši scenario koji može da se zamisli je da prosto osoba ili organizacija namerno koriste AI da uzrokuju uništenje. Radi primera šta bi AI sistem mogao da uradi što bi ubilo milijarde ljude, postoje kompanije od kojih možete onlajn da naručite da sintetizuju biološki materijal ili hemikalije… Vrlo je verovatno da će za deceniju biti moguće dizajnirati takve stvari. Ovakav scenario čak ne zahteva autonomnost AI – rekao je on.

Drugi scenario je onaj gde AI razvija sopstvene ciljeve.

- Postoji više od decenije istraživanja u pokušaju da se razume kako bi to moglo da se dogodi. Intuicija govori da, čak i kad ljudi postave ciljeve poput “ne povređuj ljude”, nešto uvek krene naopako. Nije jasno da će one (mašine) razumeti tu komandu na isti način kao mi. možda će to razumeti kao “ne povređuj ljude fizički”. Ali, mogu da nas povrede na mnogo drugih načina – naveo je Bengio.

Kakav god cilj da zadamo, postoji prirodna tendencija da se pojave neki srednji ciljevi.

- Ako pitate AI sistem bilo šta, da bi se to postiglo on mora da preživi dovoljno dugo. Sada ima instinkt za preživljavanje. Kad stvorimo entitet koji ima instinkt za preživljavanje, to je kao da smo stvorili novu vrstu. Jednom kad ti AI sistemi dobiju instinkt za preživljavanje, mogli bi da rade stvari koje su opasne po nas – rekao je Bengio.

On smatra da je izvodljivo izgraditi AI sisteme koji neće slučajno postati autonomni ali da, čak i ako nađemo recept za izgradnju potpuno bezbednog sistema, znanje kako da to uradimo automatski će nam reći kako da izgradimo opasan, autonomni sistem, ili onaj koji će raditi u ime nekog sa lošim namerama.

PROČITAJTE KLIKOM OVDE NAJVAŽNIJE AKTUELNE VESTI

Komentari (0)

Loading