Egzistencijalni rizik od opšte veštačke inteligencije
Egzistencijalni rizik od opšte veštačke inteligencije je ideja da bi značajan napredak u opštoj veštačkoj inteligenciji (AGI) mogao dovesti do izumiranja ljudi ili nepovratne globalne katastrofe.[1][2][3]
Jedan argument glasi: ljudska bića dominiraju drugim vrstama zato što ljudski mozak poseduje karakteristične sposobnosti koje nedostaju drugim životinjama. Ako bi veštačka inteligencija nadmašila čovečanstvo u opštoj inteligenciji i postala superinteligentna, onda bi je moglo postati teško ili nemoguće kontrolisati. Kao što sudbina planinske gorile zavisi od ljudske dobre volje, tako bi sudbina čovečanstva mogla zavisiti od delovanja buduće mašinske superinteligencije.[4]
O ostvarivosti egzistencijalne katastrofe usled veštačke inteligencije se široko raspravlja. Ona delom zavisi od toga da li su AGI ili superinteligencija dostižni, brzine kojom se pojavljuju opasne sposobnosti i ponašanja,[5] i da li postoje praktični scenariji za prevlast veštačke inteligencije.[6] Zabrinutost oko superinteligencije izrazili su vodeći računarski naučnici i izvršni direktori tehnologije kao što su Džefri Hinton,[7] Jošua Bengio,[8] Alan Tjuring,[а] Ilon Mask,[11] i izvršni direktor OpenAI Sam Altman.[12] U 2022. godini, anketa istraživača veštačke inteligencije sa stopom odgovora od 17% pokazalo je da većina ispitanika veruje da postoji 10 procenata ili veća šansa da će naša nesposobnost da kontrolišemo veštačku inteligenciju izazvati egzistencijalnu katastrofu.[13][14] Godine 2023, stotine stručnjaka za veštačku inteligenciju i druge značajne ličnosti potpisale su izjavu da bi „ublažavanje rizika od izumiranja od veštačke inteligencije trebalo da bude globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat.“[15] Usled povećane zabrinutosti zbog rizika od veštačke inteligencije, vladini lideri kao što su premijer Ujedinjenog Kraljevstva Riši Sunak[16] i generalni sekretar Ujedinjenih nacija Antonio Guteres[17] pozvali su na povećan fokus na globalnu regulaciju veštačke inteligencije.
Dva izvora zabrinutosti proizilaze iz problema kontrole i usklađivanja VI: kontrolisanje superinteligentne mašine ili njeno usađivanje vrednostima kompatibilnim sa ljudima može biti teško. Mnogi istraživači veruju da bi se superinteligentna mašina oduprla pokušajima da se onesposobe ili promene njeni ciljevi, jer bi je to sprečilo da ostvari svoje sadašnje ciljeve. Bilo bi izuzetno teško uskladiti superinteligenciju sa punom širinom značajnih ljudskih vrednosti i ograničenja.[1][18][19] Nasuprot tome, skeptici kao što je kompjuterski naučnik Jan Lekan tvrde da superinteligentne mašine neće imati želju za samoodržanjem.[20]
Treći izvor zabrinutosti je da bi iznenadna „eksplozija inteligencije“ mogla iznenaditi nepripremljenu ljudsku rasu. Takvi scenariji razmatraju mogućnost da VI koja je inteligentnija od svojih kreatora može biti u stanju da se rekurzivno poboljša eksponencijalno rastućom stopom, poboljšavajući se prebrzo da bi njeni rukovaoci i društvo u celini mogli da je kontrolišu.[1][18] Empirijski, primeri kao što je AlphaZero koji sam uči da igra go pokazuju da sistemi veštačke inteligencije specifični za domen ponekad mogu veoma brzo da napreduju od podljudskih do nadljudskih sposobnosti, iako takvi sistemi ne podrazumevaju promenu njihove osnovne arhitekture.[21]
Napomene
[уреди | уреди извор]- ^ U predavanju iz 1951. godine[9] Tjuring je tvrdio da „Smatra se verovatnim da, kada jednom počne metod mašinskog razmišljanja, neće trebati mnogo vremena da nadmašimo naše slabe moći. Ne bi bilo govora o umiranju mašina, i one bi imale sposobnost da razgovaraju jedne sa drugima kako bi usavršile svoju pamet. Stoga bi u nekoj fazi trebalo da očekujemo da mašine preuzmu kontrolu, na način koji se pominje u Erevhon Semjuela Batlera.” Takođe u predavanju emitovanom na Bi-Bi-Siju[10] on je izneo svoje mišljenje: „Ako mašina može da misli, možda bi mislila inteligentnije od nas, a gde bismo onda mi trebali biti? Čak i kada bismo mogli da držimo mašine u podređenom položaju, na primer, isključivanjem struje u strateškim trenucima, trebalo bi da se, kao vrsta, osećamo veoma ponizno... Ova nova opasnost... je svakako nešto što može da nas zabrine."
Reference
[уреди | уреди извор]- ^ а б в Russell, Stuart; Norvig, Peter (2009). „26.3: The Ethics and Risks of Developing Artificial Intelligence”. Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
- ^ Bostrom, Nick (2002). „Existential risks”. Journal of Evolution and Technology. 9 (1): 1—31.
- ^ Turchin, Alexey; Denkenberger, David (2018-05-03). „Classification of global catastrophic risks connected with artificial intelligence”. AI & Society. 35 (1): 147—163. ISSN 0951-5666. S2CID 19208453. doi:10.1007/s00146-018-0845-5.
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First изд.). Oxford University Press. ISBN 978-0-19-967811-2.
- ^ Vynck, Gerrit De (2023-05-23). „The debate over whether AI will destroy us is dividing Silicon Valley”. Washington Post (на језику: енглески). ISSN 0190-8286. Приступљено 2023-07-27.
- ^ Metz, Cade (2023-06-10). „How Could A.I. Destroy Humanity?”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2023-07-27.
- ^ „"Godfather of artificial intelligence" weighs in on the past and potential of AI”. www.cbsnews.com (на језику: енглески). 25. 3. 2023. Приступљено 2023-04-10.
- ^ „How Rogue AIs may Arise”. yoshuabengio.org (на језику: енглески). 26. 5. 2023. Приступљено 2023-05-26.
- ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Говор). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. Архивирано из оригинала 26. 9. 2022. г. Приступљено 2022-07-22.
- ^ Turing, Alan (15. 5. 1951). „Can digital computers think?”. Automatic Calculating Machines. Епизода 2. Can digital computers think?. BBC.
- ^ Parkin, Simon (14. 6. 2015). „Science fiction no more? Channel 4's Humans and our rogue AI obsessions”. The Guardian (на језику: енглески). Архивирано из оригинала 5. 2. 2018. г. Приступљено 5. 2. 2018.
- ^ Jackson, Sarah. „The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'”. Business Insider (на језику: енглески). Приступљено 2023-04-10.
- ^ „The AI Dilemma”. www.humanetech.com (на језику: енглески). Приступљено 2023-04-10. „50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.”
- ^ „2022 Expert Survey on Progress in AI”. AI Impacts (на језику: енглески). 2022-08-04. Приступљено 2023-04-10.
- ^ Roose, Kevin (2023-05-30). „A.I. Poses 'Risk of Extinction,' Industry Leaders Warn”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2023-06-03.
- ^ Sunak, Rishi (14. 6. 2023). „Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation”. Time.
- ^ а б Fung, Brian (2023-07-18). „UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'”. CNN Business (на језику: енглески). Приступљено 2023-07-20.
- ^ а б Yudkowsky, Eliezer (2008). „Artificial Intelligence as a Positive and Negative Factor in Global Risk” (PDF). Global Catastrophic Risks: 308—345. Bibcode:2008gcr..book..303Y. Архивирано (PDF) из оригинала 2. 3. 2013. г. Приступљено 27. 8. 2018.
- ^ Russell, Stuart; Dewey, Daniel; Tegmark, Max (2015). „Research Priorities for Robust and Beneficial Artificial Intelligence” (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105—114. Bibcode:2016arXiv160203506R. arXiv:1602.03506 . Архивирано (PDF) из оригинала 4. 8. 2019. г. Приступљено 10. 8. 2019. , cited in „AI Open Letter - Future of Life Institute”. Future of Life Institute. јануар 2015. Архивирано из оригинала 10. 8. 2019. г. Приступљено 2019-08-09.
- ^ Dowd, Maureen (април 2017). „Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse”. The Hive (на језику: енглески). Архивирано из оригинала 26. 7. 2018. г. Приступљено 27. 11. 2017.
- ^ „AlphaGo Zero: Starting from scratch”. www.deepmind.com (на језику: енглески). Приступљено 2023-07-28.
Literatura
[уреди | уреди извор]- Clark, Jack (2015a). „Musk-Backed Group Probes Risks Behind Artificial Intelligence”. Bloomberg.com. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.