Koristi i rizici upotrebe vještačke inteligencije

Blog profesora dr Slobodana Đukanovića

Kako VI igra sve značajniju ulogu u ekonomskoj, socijalnoj, naučnoj, medicinskoj, finansijskoj i vojnoj sferi, smisleno je razmatrati kakve koristi i rizike ona može doneti čovječanstvu.

O koristima je već bilo riječi u dijelu koji se bavio postignućima VI, pogotovo u domenu medicine i klimatskih nauka. Čitava naša civilizacija je proizvod naše inteligencije. U tom smislu, kad bi nam bila dostupna znatno veća inteligencija mašina, plafon naših ambicija bio bi značajno podignut. VI i robotika bi mogli osloboditi čovečanstvo od mukotrpnog ponavljajućeg posla i značajno povećati proizvodnju roba i usluga, što bi dovelo do ere izobilja i mira, što je ultimativni cilj čovječanstva. Mogućnost da se uz pomoć VI ubrza naučno istraživanje mogla bi rezultirati liječenjem za sad neizliječivih bolesti i rješenjima za klimatske promjene i nedostatak resursa. Izjava izvršnog direktora Google DeepMind-a: “Prvo rješite VI, a zatim iskoristite VI da rješite sve ostalo.” sažeto oslikava željeni razvoj situacije u pogledu VI.

Međutim, mnogo prije nego što budemo imali priliku da “rješimo VI”, rizikovaćemo njene zloupotrebe, namjerne ili nenamjerne. Neke od njih su već očigledne, dok se druge čine vjerovatnim sudeći po trenutnim trendovima:

  • Smrtonosno autonomno oružje: Da, Terminator! Ujedinjene nacije definišu ovo oružje kao oružje koje može locirati, selektovati i eliminisati ljudske ciljeve bez ljudske intervencije. Ono što najviše brine kod ovog oružja je njegova skalabilnost: odsustvo ljudske intervencije i nadzora podrazumijeva da mala grupa ljudi može primijeniti proizvoljno mnogo ovog oružja protiv ljudskih ciljeva.
  • Nadzor i uticaj na odlučivanje: VI (prepoznavanje govora, kompjuterska vizija i razumijevanje jezika) se može koristiti na skalabilan način u cilju masovnog nadzora pojedinaca i otkrivanje aktivnosti od interesa. Selektovanjem informacija, koristeći tehnike mašinskog učenja, i slanjem pojedincima putem društvenih mreža, politički stav se može modifikovati i donekle kontrolisati, što je postalo očigledno na izborima u SAD 2016. godine. Lažni audio snimci, tzv. deepfake-ovi, mogu imati nevjerovatno veliku moć u ovom kontekstu. Audio snimak npr. nekog političara se može izmanipulisati na način da se čini da ta osoba ima rasističke ili seksističke stavove, dok ona zapravo nije izgovorila ništa slično. Jedan ovakav snimak dovoljnog kvaliteta možemo upropastiti političku kampanju te osobe.
  • Pristrasno donošenje odluka: Nepažljiva ili namjerna zloupotreba algoritama mašinskog učenja može rezultirati odlukama koje su pristrasne prema rasi, polu ili drugim kategorijama. Primjer je mašinska procjena zahtjeva za uslovni otpust iz zatvora ili zajam.
  • Uticaj na zaposlenost: Zabrinutost u vezi mašina koje eliminišu radna mjesta stara je vjekovima. Priča nije crno-bijela. Mašine odmjenjuju ljude u određenim zadacima, ali ih čine produktivnijim i samim tim zapošljivijim. Sa druge strane, mašine čine kompanije profitabilnijim i stoga sposobnim da povećaju plate radnicima. Neke aktivnosti mašine mogu učiniti ekonomski održivim, što bi inače bilo nepraktično. Njihova upotreba rezultira povećanjem bogatstva, ali ima tendenciju da preusmjeri bogatstvo sa radnika na vlasnika kapitala, time pogoršavajući nejednakost. Tehnološki napreci u prošlosti su rezultirali dramatičnim padovima broja radnih mjesta, ali su ljudi uvijek pronalazili nove vrste posla nakon toga. Moguće je da će i VI imati isti uticaj. Ova tema postaje jedna od ključnih za ekonomije širom svijeta.
  • Sajber bezbjednost: Tehnike VI su korisne u odbrani od sajber napada, ali će takođe doprinijeti širenju i otpornosti zlonamjernih programa. Na primjer, metode pojačanog učenja (eng. reinforcement learning) su već korišćene za stvaranje visoko efikasnih alata za automatizovano i personalizovano ucjenjivanje.

Posebnu zabrinutost u posljednje vrijeme stvara koncept vještačke superinteligencije, inteligencije koja nadaleko prevazilazi ljudske mogućnosti, i to sa nedavnim napretkom u dubokom učenju, objavljivanjem knjiga kao što je Superinteligencija, autora Nika Bostroma (2014), i javnim izjavama Stivena Hokinga, Bila Gejtsa i Ilona Maska. Štaviše, istu zabrinutost je pokazao i Alan Tjuring davne 1951, sumnjajući da čovjek može kontrolisati mašinu inteligentniju od njega.

Osjećaj nelagode prema ideji stvaranja superinteligentnih mašina je prirodan. Ovo se naziva problemom gorile. Ljudska vrsta i vrsta gorila su pre oko 7 miliona godina imale zajedničkog pretka. Danas gorile nemaju kontrolu nad svojom budućnošću, ona je u rukama ljudi. Da li se sa kreiranjem superinteligencije čovjek svjesno odriče kontrole nad svojom budućnošću?

Kako VI sistemi postaju sve sposobniji i moćniji, njihov uticaj na čovječanstvo će biti sve izraženiji. Ljudi su kroz istoriju koristili pozicije moći za razne maliciozne radnje, pa je razumno očekivati da bi takvi ljudi mogu zloupotrijebiti sisteme VI. Svi gore navedeni primjeri, ali i upozorenja čelnika razvoja VI,  ukazuju na važnost etike VI, kontrole i regulative. Trenutno su istraživačka zajednica i velike korporacije koje su uključene u istraživanje VI razvile principe dobrovoljnog samoupravljanja za aktivnosti povezane sa VI. Vlade i međunarodne organizacije uspostavljaju savjetodavna tijela koja će osmisliti odgovarajuće propise za svaki konkretan slučaj upotrebe, pripremiti se za ekonomske i socijalne uticaje i iskoristiti sposobnosti VI za rješavanje glavnih društvenih problema. Da ponovimo, ne želimo da mašine budu inteligentne u smislu postizanja svojih, već naših ciljeva.

Prof. dr Slobodan Đukanović

Univerzitet Crne Gore/ Elektrotehnički fakultet

Pretraži