Вештачка интелигенција
Вештачка интелигенција (такође ВИ) је подобласт рачунарства која развија и проучава интелигентне машине.[1][2] Вештачка интелигенција је интелигенција машина или софтвера, за разлику од интелигенције живих бића, првенствено људи. Циљ истраживања вештачке интелигенције је развијање програма (софтвера), који ће рачунарима омогућити да се понашају на начин који би се могао окарактерисати интелигентним. Прва истраживања се вежу за саме корене рачунарства. Идеја о стварању машина које ће бити способне да обављају различите задатке интелигентно, била је централна преокупација научника области рачунарства који су се определили за истраживање вештачке интелигенције, током целе друге половине 20. века. Савремена истраживања у вештачкој интелигенцији су оријентисана на експертске и преводилачке системе у ограниченим доменима, препознавање природног говора и писаног текста, аутоматске доказиваче теорема, као и константно интересовање за стварање генерално интелигентних аутономних агената. Вештачка интелигенција као појам у ширем смислу, означава капацитет једне вештачке творевине за реализовање функција које су карактеристика људског размишљања. Могућност развоја сличне творевине је будила интересовање људи још од античког доба; ипак, тек у другој половини 20. века таква могућност је добила прва оруђа (рачунаре), чиме се отворио пут за тај подухват.[3] Потпомогнута напретком модерне науке, истраживања на пољу вештачке интелигенције се развијају у два основна смера: психолошка и физиолошка истраживања природе људског ума, и технолошки развој све сложенијих рачунарских система. У том смислу, појам вештачке интелигенције се првобитно приписао системима и рачунарским програмима са способностима реализовања сложених задатака, односно симулацијама функционисања људског размишљања, иако и дан данас, прилично далеко од циља. У тој сфери, најважније области истраживања су обрада података, препознавање модела различитих области знања, игре и примијењене области, као на пример медицина. Технологија вештачке интелигенције се широко користи у индустрији, влади и науци. Неке апликације високог профила су: напредни веб претраживачи (нпр. Гугл претрага), системи препорука (које користе Јутјуб, Амазон и Нетфликс), интеракција путем људског говора (нпр. Гугл асистант, Сири и Алекса), самостална вожња аутомобила (нпр. Вејмо), генеративни и креативни алати (нпр. ChatGPT[4][5] и уметност вештачке интелигенције[6]), и надљудска игру и анализа у стратешким играма (нпр. шах и го).[7]
Неке области данашњих истраживања обрађивања података се концентришу на програме који настоје оспособити рачунар за разумевање писане и вербалне информације, стварање резимеа, давање одговара на одређена питања или редистрибуцију података корисницима заинтересованим за одређене делове тих информација. У тим програмима је од суштинског значаја капацитет система за конструисање граматички коректних реченица и успостављање везе између речи и идеја, односно идентификовање значења. Истраживања су показала да, док је проблеме структурне логике језика, односно његове синтаксе, могуће решити програмирањем одговарајућих алгоритама, проблем значења, или семантика, је много дубљи и иде у правцу аутентичне вештачке интелигенције. Основне тенденције данас, за развој система вештачке интелигенције представљају: развој експертских система и развој неуронских мрежа. Експертски системи покушавају репродуковати људско размишљање преко симбола. Неуронске мреже то раде више из биолошке перспективе (рекреирају структуру људског мозга уз помоћ генетских алгоритама). Упркос сложености оба система, резултати су веома далеко од стварног интелигентног размишљања. Многи научници су скептици према могућности развијања истинске вештачке интелигенције. Функционисање људског размишљања, још увек није дубље познато, из ког разлога ће информатички дизајн интелигентних система, још дужи временски период бити у суштини онеспособљен за представљање тих непознатих и сложених процеса. Истраживања вештачке интелигенције су фокусирана на следеће компоненте интелигенције: учење, размишљање, решавање проблема, перцепција и разумијевање природног језика.
Алан Тјуринг је био прва особа која је спровела значајна истраживања у области коју је назвао машинска интелигенција.[8] Вештачка интелигенција је основана као академска дисциплина 1956. године.[9] Поље је прошло кроз више циклуса оптимизма,[10][11] праћених периодима разочарења и губитка финансирања, познатим као зима вештачке интелигенције.[12][13] Финансирање и интересовање су се знатно повећали након 2012. када је дубоко учење надмашило све претходне технике вештачке интелигенције,[14] и после 2017. са архитектуром трансформатора.[15] Ово је довело до пролећа вештачке интелигенције почетком 2020-их, при чему су компаније, универзитети и лабораторије које су претежно са седиштем у Сједињеним Државама, остварили значајне пионирске напретке у вештачкој интелигенцији.[16] Све већа употреба вештачке интелигенције у 21. веку утиче на друштвени и економски помак ка повећању аутоматизације, доношења одлука заснованих на подацима и интеграцији система вештачке интелигенције у различите економске секторе и области живота, утичући на тржишта рада, здравство, владу , индустрија и образовање. Ово поставља питања о етичким импликацијама и ризицима од вештачке интелигенције, што подстиче дискусије о регулаторним политикама како би се осигурала безбедност и предности технологије. Различите подобласти вештачке интелигенције су истраживања усредсређена на одређене циљеве и употребу специфичних алата. Традиционални циљеви истраживања вештачке интелигенције обухватају расуђивање, представљање знања, планирање, учење, обрада природног језика, перцепција и подршка роботици.[а] Општа интелигенција (способност да се обави било који задатак који човек може да изврши) спада у дугорочне циљеве у овој области.[17] Да би решили ове проблеме, истраживачи вештачке интелигенције су прилагодили и интегрисали широк спектар техника решавања проблема, укључујући претрагу и математичку оптимизацију, формалну логику, вештачке неуронске мреже и методе засноване на статистици, операционом истраживању и економији.[б] Вештачка интелигенција се такође ослања на психологију, лингвистику, филозофију, неуронауку и друге области.[18]
Циљеви
[уреди | уреди извор]Општи проблем симулације (или стварања) интелигенције подељен је на подпроблеме. Они се састоје од одређених особина или способности које истраживачи очекују да интелигентни систем покаже. Испод описане особине су задобиле највише пажње и покривају обим истраживања вештачке интелигенције.[а]
Основни циљеви истраживања на пољу вештачке интелигенције
[уреди | уреди извор]Тренутно, када су у питању истраживања на пољу вештачке интелигенције, могуће је постићи два комплементарна циља, који респективно наглашавају два аспекта вештачке интелигенције, а то су теоријски и технолошки аспект.
Први циљ је студија људских когнитивних процеса уопште, што потврђује дефиницију Патрика Ј. Хејеса - „студија интелигенције као компутације“, чиме се вештачка интелигенција усмерава ка једној својеврсној студији интелигентног понашања код људи.
Вештачка интелигенција, као област информатике, бави се пројектовањем програмских решења за проблеме које настоји решити.
Размишљање и решавање проблема
[уреди | уреди извор]Размишљање је процес извлачења закључака који одговарају датој ситуацији. Закључци се класификују као дедуктивни и индуктивни. Пример дедуктивног начина закључивања би могао бити, „Саво је или у музеју, или у кафићу. Није у кафићу; онда је сигурно у музеју“; и индуктивног, „Претходне несреће ове врсте су биле последица грешке у систему; стога је и ова несрећа узрокована грешком у систему“. Најзначајнија разлика између ова два начина закључивања је да, у случају дедуктивног размишљања, истинитост премисе гарантује истинитост закључка, док у случају индуктивног размишљања истинитост премисе даје подршку закључку без давања апсолутне сигурности његовој истинитости. Индуктивно закључивање је уобичајено у наукама у којима се сакупљају подаци и развијају провизиони модели за опис и предвиђање будућег понашања, све док се не појаве аномалије у моделу, који се тада реконструише. Дедуктивно размишљање је уобичајено у математици и логици, где детаљно обрађене структуре непобитних теорема настају од мањих скупова основних аксиома и правила. Постоје значајни успеси у програмирању рачунара за извлачење закључака, нарочито дедуктивне природе. Ипак, истинско размишљање се састоји од сложенијих аспеката; укључује закључивање на начин којим ће се решити одређени задатак, или ситуација. Ту се налази један од највећих проблема с којим се сусреће вештачка интелигенција.
Решавање проблема, нарочито у вештачкој интелигенцији, карактерише систематска претрага у рангу могућих акција с циљем изналажења неког раније дефинисаног решења. Методе решавања проблема се деле на оне посебне и оне опште намене. Метода посебне намене је тражење адаптираног решења за одређени проблем и садржи врло специфичне особине ситуација од којих се проблем састоји. Супротно томе, метод опште намене се може применити на шири спектар проблема. Техника опште намене која се користи у вештачкој интелигенцији је метод крајње анализе, део по део, или постепено додавање, односно редуковање различитости између тренутног стања и крајњег циља. Програм бира акције из листе метода - у случају једноставног робота кораци су следећи: PICKUP, PUTDOWN, MOVEFROWARD, MOVEBACK, MOVELEFT и MOVERIGHT, све док се циљ не постигне. Већи број различитих проблема су решени преко програма вештачке интелигенције. Неки од примера су тражење победничког потеза, или секвенце потеза у играма, сложени математички докази и манипулација виртуелних објеката у вештачким, односно синтетичким рачунарским световима.
Рани истраживачи су развили алгоритме који су имитирали размишљање корак по корак које људи користе када решавају загонетке или извођењу логичког закључка.[19] До касних 1980-их и 1990-их, развијене су методе за рад са несигурним или непотпуним информацијама, користећи концепте вероватноће и економије.[20]
Многи од ових алгоритама су недовољни за решавање великих проблема резоновања, јер доживљавају „комбинаторијску експлозију“: они постају експоненцијално спорији како проблеми постају све већи..[21] Чак и људи ретко користе дедукцију корак по корак, коју би рано истраживање вештачке интелигенције могло да моделира. Они решавају већину својих проблема користећи брзе, интуитивне одлуке.[22] Тачно и ефикасно резоновање је нерешен проблем.
Репрезентација знања
[уреди | уреди извор]Представљање знања и инжењеринг знања[23] омогућавају програмима вештачке интелигенције да интелигентно одговарају на питања и доносе закључке о чињеницама из стварног света. Формалне репрезентације знања се користе у индексирању и претрагама заснованим на садржају,[24] тумачењу сцене,[25] подршци при доношењу клиничких одлука,[26] откривању знања (деривација „занимљивих“ и практичних закључака из великих база података)[27] и другим областима.[28]
База знања је тело знања представљено у облику који може да користи програм. Онтологија је скуп објеката, односа, концепата и својстава које користи одређени домен знања.[29] Базе знања треба да представљају ствари као што су: објекти, својства, категорије и односи између објеката;[30] ситуације, догађаји, стања и време;[31] узроци и последице;[32] знање о знању (шта знамо о томе што други људи знају);[33] подразумевано резоновање (ствари за које људи претпостављају да су истините док им се не каже другачије, и остаће истините чак и када се друге чињенице мењају);[34] и многи други аспекти и домени знања.
Међу најтежим проблемима у представљању знања су: ширина здраворазумског знања (скуп атомских чињеница које просечна особа зна је огроман);[35] и подсимболички облик већине здраворазумског знања (већи део онога што људи знају није представљен као „чињенице“ или „изјаве“ које би могли вербално да изразе).[22] Постоји такође тешкоћа стицања знања, проблем добијања знања за ВИ апликације.[в]
Планирање и доношење одлука
[уреди | уреди извор]„Агент“ је све што опажа и предузима акције у свету. Рационални агент има циљеве или преференције и предузима акције да их оствари.[г][38] У аутоматизованом планирању, агент има специфичан циљ.[39] У аутоматизованом доношењу одлука, агент има преференције – постоје неке ситуације у којима би преферирао да буде, а неке покушава да избегне. Агент за доношење одлука свакој ситуацији додељује број (који се назива „корисност”) који мери колико је агент преферира. За сваку могућу акцију, може се израчунати „очекивана корисност“: корисност свих могућих исхода акције, пондерисана вероватноћом да ће се исход догодити. Затим се може изабрати акција са максималном очекиваном корисношћу.[40]
У класичном планирању, агент тачно зна какав ће бити ефекат било које акције.[41] У већини проблема у стварном свету, међутим, агент можда није сигуран у ситуацију у којој се налази (она је „непозната“ или „неуочљива“) и можда неће са сигурношћу знати шта ће се десити након сваке могуће акције (то није „детерминистичко”). Он мора да изабере акцију тако што ће направити пробабилистичку претпоставку, и затим поново проценити ситуацију да види да ли је акција била успешна.[42]
У неким проблемима, преференције агента могу бити неизвесне, посебно ако су укључени други агенти или људи. Оне се могу научити (нпр. уз инверзно учење са поткрепљивањем) или агент може тражити информације да побољша своје преференције.[43] Теорија вредности информација може се користити за одмеравање вредности истраживачких или експерименталних радњи.[44] Простор могућих будућих радњи и ситуација је обично нерешиво велик, тако да агенти морају да предузимају акције и процењују ситуације мада нису сигурни какав ће бити исход.
Марковљев процес одлучивања има транзициони модел који описује вероватноћу да ће одређена акција променити стање на одређени начин и функцију награђивања која обезбеђује корисност сваког стања и цену сваке акције. Устројство повезује одлуку са сваким могућим стањем. Курс одлука може да буде прорачунат (нпр. итерацијом), може бити хеуристичке природе или се може научити.[45]
Теорија игара описује рационално понашање више агената у интеракцији и користи се у ВИ програмима који доносе одлуке које укључују друге агенте.[46]
Учење
[уреди | уреди извор]Постоји више различитих облика учења који су примењени на област вештачке интелигенције. Најједноставнији се односи на учење на грешкама преко покушаја. На пример, најједноставнији рачунарски програм за решавање проблема матирања у једном потезу у шаху, је истраживање мат позиције случајним потезима. Једном изнађено решење, програм може запамтити позицију и искористити је следећи пут када се нађе у идентичној ситуацији. Једноставно памћење индивидуалних потеза и процедура - познато као механичко учење - је врло лако имплементирати у рачунарски систем. Приликом покушаја имплементације тзв. уопштавања, јављају се већи проблеми и захтеви. Уопштавање се састоји од примене прошлих искустава на аналогне нове ситуације. На пример, програм који учи прошла времена глагола на српском језику механичким учењем, неће бити способан да изведе прошло време, рецимо глагола скочити, док се не нађе пред обликом глагола скочио, где ће програм који је способан за уопштавање научити „додај -о и уклони -ти“ правило, те тако формирати прошло време глагола скочити, заснивајући се на искуству са сличним глаголима.
Машинско учење је проучавање програма који могу аутоматски побољшати своје перформансе на датом задатку.[47] Оно је било део вештачке интелигенције од почетка.[д]
Постоји неколико врста машинског учења. Учење без надзора анализира ток података, проналази обрасце и изводи предвиђања без икаквог спољашњег упутства.[50] Учење под надзором захтева од човека да прво означи улазне податке, и долази у две главне варијанте: класификација (где програм мора да научи да предвиди којој категорији улаз припада) и регресија (где програм мора да изведе нумеричку функцију на основу нумеричког уноса).[51]
У подржаном учењу агент је награђен за добре одговоре и кажњен за лоше. Агент учи да бира одговоре који су класификовани као „добри“.[52] Трансферно учење примењује знање стечено из једног проблема на нови проблем.[53] Дубоко учење је врста машинског учења која покреће инпуте кроз биолошки инспирисане вештачке неуронске мреже за све ове врсте учења.[54]
Теорија рачунарског учења може проценити ученике према рачунској сложености, комплексности узорка (колико података је потребно) или другим појмовима оптимизације.[55]
Обрада природног језика
[уреди | уреди извор]Обрада природног језика (NLP)[56] омогућава програмима да читају, пишу и комуницирају на људским језицима као што је енглески. Специфични проблеми укључују препознавање говора, синтезу говора, машинско превођење, екстракцију информација, проналажење информација и одговарање на питања.[57]
Рани радови, засновани на генеративној граматици и семантичким мрежама Ноама Чомског, имали су потешкоћа са разазначавањем смисла речи[ђ] осим ако нису били ограничени на мале домене зване „микро-светови“ (због проблема са поимањем здравог разума[35]). Маргарет Мастерман је веровала да је значење, а не граматика, кључ за разумевање језика и да би тезауруси, а не речници, требало да буду основа рачунске језичке структуре.
Савремене технике дубоког учења за NLP укључују уграђивање речи (који представљају речи, типично као векторе који кодирају њихово значење),[58] трансформаторе (архитектура дубоког учења која користи механизам пажње)[59] и друге.[60] Године 2019, генеративни унапред обучени трансформаторски (или „GPT“) језички модели почели су да генеришу кохерентан текст,[61][62] и до 2023. ови модели су могли да остваре резултате на нивоу човека на правосудном испиту, SAT тесту, GRE тесту, и у многим другим апликацијама у стварном свету.[63]
Перцепција
[уреди | уреди извор]Машинска перцепција је способност да се користи улаз са сензора (као што су камере, микрофони, бежични сигнали, активни лидар, сонар, радар и тактилни сензори) да би се извели закључили о аспектима света. Компјутерски вид је способност анализе визуелног уноса.[64]
Ова област обухвата препознавање говора,[65] класификацију слика,[66] препознавање лица, препознавање објеката[67] и роботску перцепцију.[68]
Социјална интелигенција
[уреди | уреди извор]Афективно рачунарство је интердисциплинарна област који се састоји од система који препознају, тумаче, обрађују или симулирају људска осећања, емоције и расположење.[70] На пример, неки виртуелни асистенти су програмирани да конверзационо разговарају или чак да се шале на духовит начин. Они су стога осетљивији на емоционалну динамику људске интеракције, или да на други начин олакшају интеракцију између човека и рачунара.
Међутим, ово има тенденцију да наивним корисницима пружи нереалну концепцију интелигенције постојећих компјутерских агената.[71] Умерени успеси у вези са афективним рачунарством укључују текстуалну анализу осећања и, у скорије време, мултимодалну анализу осећања, где ВИ класификује афекте које приказује субјект приказан на видео снимку.[72]
Општа интелигенција
[уреди | уреди извор]Машина са вештачком општом интелигенцијом требало би да буде у стању да реши широк спектар проблема са ширином и свестраношћу која је слична људској интелигенцији.[17]
Проблем дефиниције вештачке интелигенције
[уреди | уреди извор]За разлику од других области, у вештачкој интелигенцији не постоји сагласност око једне дефиниције, него их има више зависно од различитих погледа и метода за решавање проблема.
Дефиниција и циљеви
[уреди | уреди извор]Упркос времену које је прошло од када је Џон Макарти дао име овој области на конференцији одржаној 1956. године у Дартмуду, није нимало лако тачно дефинисати садржај и достигнућа вештачке интелигенције.
Највероватније, једна од најкраћих и најједноставнијих карактеристика која се приписује вештачкој интелигенцији, парафразирајући Марвина Минског, (једног од стручњака и најпознатијих истраживача вештачке интелигенције), је „конструисање рачунарских система са особинама које би код људских бића биле окарактерисане као интелигентне“.
Тјурингов тест
[уреди | уреди извор]У познатом такозваном Тјуринговом тесту, који је Алан Тјуринг описао и објавио у једном чланку из 1950. године, под насловом Computing machinery and intelligence (Рачунске машине и интелигенција), предлаже се један експеримент чији је циљ откривање интелигентног понашања једне машине. Тест полази од једне игре у којој испитивач треба да погоди пол два интерлокутора, A и Б, а који се налазе у посебним и одвојеним собама. Иако обоје тврде да су женског пола, у ствари ради се о мушкарцу и жени. У изворном Тјуринговом предлогу урађена је извесна модификација, те је жену заменио рачунар. Испитивач треба да погоди ко је од њих машина, полазећи од њиховог међусобног разговора и имајући у виду да обоје тврде да су људи. Задатак треба постићи упркос чињеници да ниједан од интерлокутора није обавезан да говори истину, те на пример, машина може одлучити да да погрешан резултат једне аритметичке операције, или чак да га саопшти много касније како би варка била уверљивија.
По оптимистичкој хипотези самог Тјуринга, око 2000. године, већ је требало да постоје рачунари оспособљени за игру ове игре довољно добро, тако да просечан испитивач нема више од 70% шансе да уради исправну идентификацију, након пет минута постављања питања. Када би то данас заиста било тако, налазили би се пред једном истински интелигентном машином, или у најмању руку машином која уме да се представи као интелигентна. Не треба ни поменути да су Тјурингова предвиђања била превише оптимистична, што је био врло чест случај у самим почецима развоја области вештачке интелигенције. У стварности проблем није само везан за способност рачунара за обраду података, него на првом мјесту, за могућност програмирања рачунара са способностима за интелигентно понашање.
Вештачка интелигенција у образовању
[уреди | уреди извор]Сан о рачунарима који би могли да образују ученике и студенте, више деценија је инспирисао научнике когнитивне науке. Прва генерација таквих система (названи Computer Aided Instruction или Computer Based Instruction), углавном су се заснивали на хипертексту. Структура тих система се састојала од презентације материјала и питања са више избора, која шаљу ученика на даље информације, у зависности од одговора на постављена питања.
Наредна генерација ових система Intelligent CAI или Intelligent Tutoring Systems, заснивали су се на имплементацији знања о одређеној теми, у сам рачунар. Постајала су два типа оваквих система. Први је тренирао ученика у самом процесу решавања сложених проблема, као што је нпр. препознавање грешака дизајна у једном електричном колу или писање рачунарског програма. Други тип система је покушавао да одржава силогистички дијалог са студентима. Имплементацију другог типа система је било врло тешко спровести у праксу, великим делом због проблема програмирања система за разумевање спонтаног и природног људског језика. Из тог разлога, пројектовано их је само неколико.
Типични систем за тренирање ученика и студената се обично састоји од четири основне компоненте.
- Прва компонента је окружење у којем ученик или студент ради на решавању сложених задатака. То може бити симулација компоненте или компонената електронских уређаја представљена као серија проблема које студент треба да реши.
- Друга компонента је експертски систем који може решити представљене проблеме на којима студент ради.
- Трећу чини један посебан модул који може упоредити решења која нуди студент са онима које су уграђене у експертски систем и његов циљ је да препозна студентов план за решење проблема, као и које делове знања највероватније студент користи.
- Четврту чини педагошки модул који сугерише задатке које треба решити, одговара на питања студента и указује му на могуће грешке. Одговори на питања студента и сугестије за планирање решавања задатака, заснивају се на прикупљеним подацима из претходног модула.
Свака од ових компонената може користити технологију вештачке интелигенције. Окружење може садржати софистицирану симулацију или интелигентног агента, односно симулираног студента или чак опонента студенту. Модул који чини експертски систем се састоји од класичних проблема вештачке интелигенције, као што су препознавање плана и резоновање над проблемима који укључују неизвесност. Задатак педагошког модула је надгледање плана инструкције и његово адаптирање на основу нових информација о компетентности студента за решавање проблема. Упркос сложености система за тренирање ученика и студената, пројектовани су у великом броју, а неки од њих се регуларно користе у школама, индустрији и за војне инструкције.
Технике
[уреди | уреди извор]Истраживање вештачке интелигенције користи широк спектар техника за постизање горе наведених циљева.[б]
Претрага и оптимизација
[уреди | уреди извор]ВИ може да реши многе проблеме интелигентним претраживањем многих могућих решења.[73] Постоје две веома различите врсте претраге које се користе у ВИ: претрага простора стања и локална претрага.
Претрага простора стања
[уреди | уреди извор]Претрага простора стања претражује стабло могућих стања како би покушала да пронађе циљно стање.[74] На пример, алгоритми планирања претражују кроз стабла циљева и подциљева, покушавајући да пронађу пут до жељеног циља, процес који се назива анализа средстава и циљева.[75]
Једноставне исцрпне претраге[76] ретко су довољне за већину проблема из стварног света: простор за претрагу (број места за претрагу) брзо расте до астрономских размера. Резултат је претрага која је преспора или се никада не завршава.[21] „Хеуристика“ или „правила палца“ могу помоћи да се одреде приоритети избора за које је већа вероватноћа да ће постићи циљ.[77]
Супарничка претрага се користи за програме за играње игара, као што су шах или го. Она претражује стабло могућих потеза и контра-потеза, тражећи победничку позицију.[78]
Локална претрага
[уреди | уреди извор]Локална претрага користи математичку оптимизацију да пронађе решење за проблем. Почиње неким обликом нагађања и постепено га рафинира.[79]
Опадајуће спуштање је врста локалне претраге која оптимизује скуп нумеричких параметара тако што их поступно прилагођава да би се минимизовала функција губитка. Варијанте градијентног спуштања се обично користе за обуку неуронских мрежа.[80]
Други тип локалне претраге је еволуционо рачунање, које има за циљ да итеративно побољша скуп решења кандидата тако што ће их „мутирати“ и „рекомбиновати“, бирајући само најспособније да преживе сваку генерацију.[81]
Дистрибуирани процеси претраживања могу да се координирају преко алгоритама ројевске интелигенције. Два популарна ројевска алгоритма који се користе у претраживању су оптимизација роја честица (инспирисана јатом птица) и оптимизација колонија мрава (инспирисана мрављим стазама).[82]
Логика
[уреди | уреди извор]Формална логика се користи за расуђивање и представљање знања.[83] Формална логика долази у два главна облика: пропозициона логика (која оперише на изјавама које су истините или нетачне, и користи логичке повезнице као што су „и“, „или“, „не“ и „имплицира“[84] и предикатска логика (која такође ради на објектима, предикатима и односима и користи квантификаторе као што су „Свако X је Y“ и „Постоје неки X-еви који су Y“).[85]
Логички закључак (или дедукција) је процес доказивања новог исказа (закључка) на основу других исказа за које се већ зна да су тачни (премисе).[86] Логичка база знања такође обрађује упите и тврдње као посебан случај закључивања.[87] Правило закључивања описује шта је ваљан корак у доказу. Најопштије правило закључивања је резолуција.[88] Закључивање се може свести на извођење претраге како би се пронашао пут који води од премиса до закључака, где је сваки корак примена правила закључивања.[89] Закључак изведен на овај начин је недосежан осим за кратке доказе у ограниченим доменима. Није откривен ниједан ефикасан, моћан и општи метод.
Расплинута логика приписује „степен истине“ између 0 и 1. Стога може да обрађује пропозиције које су нејасне и делимично тачне.[90] Немонотонске логике су дизајниране да обрађују подразумевано резоновање.[34] Друге специјализоване верзије логике су развијене да опишу многе сложене домене (погледајте репрезентацију знања изнад).
Пробабилистичке методе за неизвесно резоновање
[уреди | уреди извор]Многи проблеми у области вештачке интелигенције (укључујући расуђивање, планирање, учење, перцепцију и роботику) захтевају од агента да ради са непотпуним или несигурним информацијама. Истраживачи вештачке интелигенције су осмислили бројне алате за решавање ових проблема користећи методе из теорије вероватноће и економије.[91]
Бајесове мреже[92] су веома општи алат који се може користити за многе проблеме, укључујући расуђивање (користећи алгоритам Бајесовог закључивања),[е][94] учење (користећи алгоритам максимизације очекивања),[ж][96] планирање (користећи мреже одлучивања)[97] и перцепцију (користећи динамичке Бајесове мреже).[98]
Пробабилистички алгоритми се такође могу користити за филтрирање, предвиђање, уједначавање и проналажење објашњења за токове података, помажући системима перцепције да анализирају процесе који се дешавају током времена (нпр. скривени Марковљеви модели или Калманови филтри).[98]
Развијени су прецизни математички алати који анализирају како агент може да доноси изборе и планира, користећи теорију одлучивања, анализу одлука,[99] и теорију вредности информација.[100] Ови алати укључују моделе као што су Марковљеви процеси одлучивања,[101] динамичке мреже одлучивања,[98] теорија игара и дизајн механизама.[102]
Класификатори и статистичке методе учења
[уреди | уреди извор]Најједноставније ВИ апликације се могу поделити у два типа: класификатори (нпр. „ако је сјајан онда је дијамант“), с једне стране, и контролери (нпр. „ако је дијамант онда га узми“), с друге стране. Класификатори[103] су функције које користе подударање шаблона за одређивање најближег подударања. Могу се фино подесити на основу одабраних примера коришћењем учења под надзором. Сваки образац (који се назива и „опсервација”) је означен одређеном унапред дефинисаном класом. Сва запажања у комбинацији са њиховим ознакама класа позната су као скуп података. Када се прими ново запажање, то запажање се класификује на основу претходног искуства.[51]
У употреби је много врста класификатора. Стабло одлучивања је најједноставнији и најчешће коришћени симболички алгоритам машинског учења.[104] Алгоритам К-најближег суседа је био најраспрострањенији аналогни вид вештачке интелигенције до средине 1990-их, а методе кернела као што је метода потпорних вектора (SVM) су замениле приступ к-најближег суседа током 1990-их.[105] Наивни Бајесов класификатор се сматра „највише коришћеним видом учења“[106] у Гуглу, делимично због своје скалабилности.[107] Неуронске мреже се такође користе као класификатори.[108]
Вештачке неуронске мреже
[уреди | уреди извор]Вештачка неуронска мрежа се заснива на колекцији чворова познатих и као вештачки неурони, који лабаво моделују неуроне у биолошком мозгу. Она је обучена да препозна обрасце; када се једном обучи, може препознати те обрасце у свежим подацима. Постоји улаз, најмање један скривени слој чворова и излаз. Сваки чвор примењује функцију и када тежина пређе одређени праг, подаци се преносе на следећи слој. Мрежа се обично назива дубоком неуронском мрежом ако има најмање 2 скривена слоја.[108]
Алгоритми за учење за неуронске мреже користе локалну претрагу да би одабрали параметре које ће произвести адекватан излаз за сваки улаз током тренинга. Најчешћа техника обуке је алгоритам бекпропагације.[109] Неуронске мреже уче да моделују сложене односе између улаза и излаза и проналазе обрасце у подацима. У теорији, неуронска мрежа може научити било коју функцију.[110]
У неуронским мрежама директне комуникације сигнал пролази само у једном правцу.[111] Рекурентне неуронске мреже враћају излазни сигнал назад у улаз, што омогућава краткорочно памћење претходних улазних догађаја. Дуга краткорочна меморија је најуспешнија мрежна архитектура за рекурентне мреже.[112] Перцептрони[113] користе само један слој неурона, дубоко учење[114] користи више слојева. Конволуционе неуронске мреже јачају везу између неурона који су „блиски“ један другом – ово је посебно важно у обради слике, где локални скуп неурона мора да идентификује „ивицу“ пре него што мрежа може да идентификује објекат.[115]
Дубоко учење
[уреди | уреди извор]Дубоко учење[114] користи неколико слојева неурона између улаза и излаза мреже. Више слојева може прогресивно извући карактеристике вишег нивоа из сировог уноса. На пример, у обради слике, нижи слојеви могу да идентификују ивице, док виши слојеви могу да идентификују концепте релевантне за човека као што су цифре, слова или лица.[116]
Дубоко учење је знатно побољшало перформансе програма у многим важним подобластима вештачке интелигенције, укључујући компјутерски вид, препознавање говора, обраду природног језика, класификацију слика[117] и друге. Разлог због којег дубоко учење има тако добре резултате у толиком броју апликација није познат према подацима из 2023. године.[118] До изненадног успеха дубоког учења 2012–2015. није дошло због неког новог открића или теоријског продора (дубоке неуронске мреже и пропагацију уназад су описали многи људи још од 1950-их)[з] већ због два фактора: невероватно повећање снаге рачунара (укључујући стоструко повећање брзине преласком на GPU процесоре) и доступност огромних количина података за обуку, посебно гигантских разврстаних скупова података који се користе за контролно тестирање, као што је ImageNet.[и]
GPT
[уреди | уреди извор]Генеративни унапред обучени трансформатори (GPT) су велики језички модели који се заснивају на семантичким односима између речи у реченицама (обрада природног језика). GPT модели засновани на тексту су унапред обучени за велики корпус текста који може бити преузет са интернета. Претходна обука се састоји у предвиђању следеће лексеме (токен је обично реч, подреч или интерпункција). Током ове пред-обуке, GPT модели акумулирају знање о свету, а затим могу да генеришу текст сличан оном који су људи створили понављањем предвиђања следећег токена. Типично, наредна фаза обуке чини модел истинитијим, кориснијим и безопаснијим, обично уз технику која се зове подржано учење на основу људских повратних информација (RLHF). Садашњи GPT модели су још увек склони генерисању неистина које се називају „халуцинације“, иако се то може смањити помоћу RLHF и података о квалитету. Користе се у чатботовима, који омогућавају кориснику да постави питање или да постави задатак једноставним текстом.[127][128]
Тренутни модели и услуге укључују: Гемини (раније Бард), ChatGPT, Грок, Клод, Копилот и LLaMA.[129] Мултимодални GPT модели могу да обрађују различите типове података (модалитета) као што су слике, видео записи, звук и текст.[130]
Специјализовани хардвер и софтвер
[уреди | уреди извор]Крајем 2010-их, графичке процесорске јединице (GPU) које су све више дизајниране са побољшањима специфичним за ВИ и коришћене са специјализованим TensorFlow софтвером, у знатној мери су замениле претходно коришћену централну процесорску јединицу (CPU) као доминантно средство за велике (комерцијалне и академске) обуке модела машинског учења.[131] Историјски гледано, коришћени су специјализовани језици, као што су Лисп, Пролог, Питон и други.
Примене
[уреди | уреди извор]Технологија вештачке интелигенције и машинског учења се користи у већини есенцијалних апликација 2020-их, укључујући: претраживаче (као што је Гугл претрага), циљање онлајн реклама, системе препорука (које нуде Нетфликс, Јутјуб или Амазон), повећање интернет саобраћаја, циљано оглашавање (Адсенс, Фејсбук), виртуелни асистенти (као што су Сири или Алекса), аутономна возила (укључујући дронове, ADAS и самовозеће аутомобиле), аутоматски превод језика (Мајкрософт преводилац, Гугл преводилац), препознавање лица (Еплов Фејс ИД или Мајкрософтов Дипфејс и Гуглов Фејснет) и означавање слика (које користе Фејсбук, Еплов Ајфото и Тикток).
Здравље и медицина
[уреди | уреди извор]Примена вештачке интелигенције у медицини и медицинским истраживањима има потенцијал да побољша негу пацијената и квалитет живота.[132] Кроз сочиво Хипократске заклетве, медицински радници су етички приморани да користе вештачку интелигенцију, ако апликације могу прецизније да дијагнозирају и лече пацијенте.
За медицинска истраживања, ВИ је важан алат за обраду и интеграцију великих количина података. Ово је посебно важно за развој органоидног и ткивног инжењеринга који користи микроскопско снимање као кључну технику у производњи.[133] Предложено је да вештачка интелигенција може да превазиђе разлике у финансирању додељене различитим областима истраживања.[133] Нови ВИ алати могу продубити наше разумевање биомедицински релевантних путева. На пример, Алфафолд 2 (2021) је показао способност да се апроксимира, у временском распону од неколико сати, а не месеци, 3Д структура протеина.[134] Године 2023, објављено је да је откривање лекова вођено вештачком интелигенцијом помогло у проналажењу класе антибиотика способних да убију две различите врсте бактерија отпорних на лекове.[135]
Игре
[уреди | уреди извор]Програми за играње игрица се користе од 1950-их за демонстрацију и тестирање најнапреднијих техника вештачке интелигенције.[136] Дип блу је постао први компјутерски систем за играње шаха који је победио актуелног светског шампиона у шаху, Гарија Каспарова, 11. маја 1997. године.[137] Године 2011, у егзибиционом мечу квиз шоа Jeopardy!, IBM-ов систем одговора на питања, Вотсон, победио је два највећа шампиона шоа, Брада Рутера и Кена Џенингса, са значајном маргином.[138] У марту 2016, Алфаго је победио у 4 од 5 игара гоа у мечу са го шампионом Лијем Седолом, поставши први компјутерски го-играчки систем који је победио професионалног го играча без хендикепа. Затим је 2017. победио Ке Јија, који је био најбољи го играч на свету.[139] Други програми обрађују игре са несавршеним информацијама, као што је програм за играње покера Плурибус.[140] Дипмајд је развио све генералистичке моделе подржаног учења, као што је Музеро, који би се могао обучити да игра шах, го или Атари игре.[141] У 2019. години, Дипмајндов Алфастар је достигао ниво велемајстора у Старкрафт II, посебно изазовној стратешкој игри у реалном времену која укључује непотпуно знање о томе шта се дешава на мапи.[142] Године 2021, ВИ агент се такмичио у Плејстејшон Гран Турисмо такмичењу, победивши четири најбоља светска возача Гран Турисма користећи подржано дубоко учење.[143]
Војска
[уреди | уреди извор]Разне земље примењују ВИ војне апликације.[144] Главне апликације побољшавају команду и контролу, комуникације, сензоре, интеграцију и интероперабилност.[145] Истраживање је усмерено на прикупљање и анализу обавештајних података, логистику, сајбер операције, информационе операције, и полуаутономна и аутономна возила.[144] ВИ технологије омогућавају координацију сензора и ефектора, откривање и идентификацију претњи, обележавање непријатељских позиција, фокусирање на мете, координацију и деконфликацију дистрибуираних заједничких паљби између умрежених борбених возила која укључују тимове са посадом и без посаде.[145] ВИ је била укључена у војне операције у Ираку и Сирији.[144]
У новембру 2023. године, потпредседница САД Камала Харис објавила је декларацију коју је потписала 31 држава о постављању заштитних ограда за војну употребу IA. Обавезе укључују коришћење правних прегледа како би се осигурала усклађеност војне вештачке интелигенције са међународним законима, као и опрез и транспарентност у развоју ове технологије.[146]
Генеративна вештачка интелигенција
[уреди | уреди извор]Почетком 2020-их, генеративна вештачка интелигенција је стекла широку важност. У марту 2023, 58% одраслих у САД је чуло за ChatGPT, а 14% га је опробало.[147] Све већи реализам и лакоћа коришћења генератора текста у слику заснованих на вештачкој интелигенцији, као што су Midjourney, DALL-E и Стабилна дифузија, изазвали су тренд виралних ВИ-генерисаних фотографија. Широку пажњу привукла је лажна фотографија папе Фрање у белом пуфер капуту, измишљено хапшење Доналда Трампа и обмана о нападу на Пентагон, као и употреба у професионалној креативној уметности.[148][149]
Задаци специфични за индустрију
[уреди | уреди извор]Такође постоје хиљаде успешних ВИ апликација које се користе за решавање специфичних проблема за одређене индустрије или институције. У истраживању из 2017. године, једна од пет компанија је изјавила да је инкорпорирала „ВИ“ у неке понуде или процесе.[150] Неколико примера су складиштење енергије, медицинска дијагностика, војна логистика, апликације које предвиђају резултат судских одлука, спољна политика или управљање ланцем снабдевања.
У пољопривреди, вештачка интелигенција је помогла пољопривредницима да идентификују подручја којима је потребно наводњавање, ђубрење, третмани пестицидима, што доводи до повећања приноса. Агрономи користе вештачку интелигенцију за спровођење истраживања и развоја. ВИ се користи за предвиђање времена сазревања усева као што је парадајз, праћење влаге у земљишту, управљање пољопривредним роботима, спровођење предиктивне аналитике, класификацију емоција парења код свиња, аутоматизацију стакленика, откривање болести и штеточина, и уштеду воде.
Вештачка интелигенција се користи у астрономији за анализу све веће количине доступних података и апликација, углавном за „класификацију, регресију, груписање, предвиђање, генерисање, откриће и развој нових научних увида“, на пример за откривање егзопланета, предвиђање соларне активности и разликовање сигнала и инструменталних ефеката у астрономији гравитационих таласа. Такође би се могла користити за активности у свемиру као што је истраживање свемира, укључујући анализу података из свемирских мисија, научне одлуке свемирских летелица у реалном времену, избегавање свемирског отпада и аутономнији рад.
Етика
[уреди | уреди извор]Вештачка интелигенција, као и свака моћна технологија, има потенцијалне предности и потенцијалне ризике. Сматра се да вештачка интелигенција може да унапреди науку и пронађе решења за озбиљне проблеме: Демис Хасабис из Дип Мајнда се нада да ће „решити интелигенцију, а затим то искористити да реши све остало“.[151] Међутим, како је употреба вештачке интелигенције постала широко распрострањена, идентификовано је неколико нежељених последица и ризика.[152]
Свако ко жели да користи машинско учење као део стварног света, система у производњи, треба да уведе етику у своје процесе ВИ обуке и настоји да избегне пристрасност. Ово је посебно тачно када се у дубоком учењу користе ВИ алгоритми који су инхерентно необјашњиви.[153]
Ризици и штета
[уреди | уреди извор]Приватност и ауторска права
[уреди | уреди извор]Алгоритми машинског учења захтевају велике количине података. Технике које се користе за добијање ових података изазвале су забринутост у вези са приватношћу, надзором и ауторским правима.
Технолошке компаније прикупљају широк спектар података од својих корисника, укључујући онлајн активности, геолокацијске податке, видео и аудио записе.[154] На пример, да би изградио алгоритме за препознавање говора, Амазон је снимио милионе приватних разговора и дозволио привременим радницима да слушају и транскрибују неке од њих.[155] Мишљења о овом широко распрострањеном надзору се крећу од оних који га виде као неопходно зло до оних за које је то очигледно неетично и кршење права на приватност.[156]
ВИ програмери тврде да је то једини начин да се испоруче вредне апликације, и да су развили неколико техника које покушавају да очувају приватност док и се даље добијају подаци, као што су агрегација података, деидентификација и диференцијална приватност.[157] Од 2016. неки стручњаци за приватност, попут Синтије Дворк, почели су да посматрају приватност у смислу правичности. Брајан Кристијан је написао да су се стручњаци окренули „од питања 'шта знају' на питање 'шта раде с тим'”.[158]
Генеративна вештачка интелигенција се често обучава на нелиценцираним делима заштићеним ауторским правима, укључујући и домене као што су слике или компјутерски код; резултат се онда користи под образложењем „поштене употребе“. Такође власници веб локација који не желе да њихов садржај заштићен ауторским правима буде ВИ индексиран или 'оструган' могу да додају код на своју веб локацију, ако не желе да њихов сајт буде индексиран од стране претраживача, који је тренутно доступан за одређене сервисе као што је OpenAI. Стручњаци се не слажу око тога колико добро и под којим околностима ће се ово образложење одржати на судовима; релевантни фактори могу укључивати „сврху и карактер коришћења дела заштићеног ауторским правима“ и „утицај на потенцијално тржиште дела заштићеног ауторским правима“.[159] Године 2023, водећи аутори (укључујући Џона Гришама и Џонатана Франзена) тужили су ВИ компаније због коришћења њиховог рада за обуку генеративне вештачке интелигенције.[160][161]
Дезинформације
[уреди | уреди извор]Јутјуб, Фејсбук и други користе системе препорука који воде кориснике до више садржаја. Овим ВИ програмима је дат циљ да максимизирају ангажовање корисника (то јест, једини циљ је био да људи што више гледају). Вештачка интелигенција је спознала да корисници имају тенденцију да бирају дезинформације, теорије завере и екстремне партијске садржаје, и да би их задржала да гледају, ВИ је препоручила више тога. Корисници су такође имали тенденцију да гледају више садржаја на исту тему, тако да је вештачка интелигенција довела људе до филтерских мехурића где су добијали више верзија истих дезинформација.[162] То је многе кориснике уверило да су дезинформације истините и на крају поткопало поверење у институције, медије и владу.[163] ВИ програм је исправно научио да максимизира свој циљ, али резултат је био штетан за друштво. Након избора у САД 2016. године, велике технолошке компаније предузеле су кораке да ублаже проблем.
Године 2022, генеративна вештачка интелигенција је почела да ствара слике, аудио, видео и текст који се не разликују од стварних фотографија, снимака, филмова или људског писања. Постоји могућност је да лоши актери користе ову технологију за стварање огромне количине дезинформација или пропаганде.[164] Пионир вештачке интелигенције Џефри Хинтон изразио је забринутост због тога што, поред осталих ризика, вештачка интелигенција омогућава „ауторитарним лидерима да манипулишу својим бирачким телом“ у великим размерама.[165]
Алгоритамска пристрасност и правичност
[уреди | уреди извор]Апликације за машинско учење ће бити пристрасне ако уче из пристрасних података.[166] Могуће је да градитељи нису свесни да пристрасност постоји.[167] Пристрасност се може унети начином на који се бирају подаци за обуку и начином на који је модел примењује.[168][166] Ако се пристрасни алгоритам користи за доношење одлука које могу озбиљно да нашкоде људима (као што може бити случај у медицини, финансијама, запошљавању, стамбеној изградњи или одржавању реда), онда алгоритам може довести до дискриминације.[169] Праведност у машинском учењу је студија о томе како спречити штету узроковану алгоритамском пристрасношћу. То је постала озбиљна област академског проучавања унутар ВИ. Истраживачи су открили да није увек могуће дефинисати „правичност“ на начин који задовољава све заинтересоване стране.[170]
Дана 28. јуна 2015, нова функција за означавање слика у Гугл фотографијама грешком је идентификовала Џеки Алсиа и пријатеља као „гориле“ јер су они црни. Систем је обучен на скупу података који је садржао врло мало слика црних људи,[171] што је проблем који се назива „диспаритет величине узорка“.[172] Гугл је „поправио” овај проблем тако што је спречио систем да било шта означи као „горила”. Осам година касније, 2023. године, Гугл фотографије и даље нису могле да идентификују горилу, као ни слични производи из Епла, Фејсбука, Мајкрософта и Амазона.[173]
COMPAS је комерцијални програм који судови у САД нашироко користе за процену вероватноће да ће оптужени постати рецидивиста. У 2016, Џулија Енгвин из Пропаблика открила је да COMPAS показује расну пристрасност, упркос чињеници да у програму нису биле наведене расе оптужених. Иако је стопа грешке за белце и за црнце једнако калибрисана на тачно 61%, грешке за сваку расу су биле различите — систем је доследно прецењивао шансе да ће црнац поновити прекршај и потцењивао шансе да белац неће то учинити.[174] У 2017. години, неколико истраживача[ј] је показало да је математички немогуће да COMPAS прихвати све могуће мере правичности када су основне стопе понављања прекршаја биле различите за белце и црнце у подацима.[176]
Програм може доносити пристрасне одлуке чак и ако подаци експлицитно не помињу проблематичну карактеристику (као што је „раса“ или „пол“). Функција ће бити у корелацији са другим карактеристикама (као што су „адреса“, „историја куповине“ или „име“), а програм ће доносити исте одлуке на основу ових карактеристика као и о „раси“ или „полу“.[177] Мориц Харт је рекао да је „најробуснија чињеница у овој области истраживања да правичност кроз слепило не функционише.“[178]
Критика COMPAS-а је истакла дубљи проблем са злоупотребом ВИ. Модели машинског учења су дизајнирани да праве „предвиђања“ која су важећа само ако се претпоставља да ће будућност личити на прошлост. Ако су обучени на основу података који укључују резултате расистичких одлука у прошлости, модели машинског учења морају предвидети да ће се расистичке одлуке доносити у будућности. Нажалост, ако апликација тада користи ова предвиђања као препоруке, неке од ових препорука ће вероватно бити расистичке.[179] Према томе, машинско учење није добро прилагођено да помогне у доношењу одлука у областима у којима постоји нада да ће будућност бити боља од прошлости. Оно је нужно дескриптивно, а не проскриптивно.[к]
Пристрасност и неправедност могу остати неоткривени, јер су градитељи претежно белци и мушкарци: међу инжењерима вештачке интелигенције, око 4% су црнци, а 20% жене.[172]
На својој Конференцији о правичности, одговорности и транспарентности 2022. (ACM FAccT 2022) Удружење за рачунарске машине у Сеулу, Јужна Кореја, представило је и објавило налазе у којима препоручује да док се не покаже да су вештачка интелигенција и роботски системи без грешака пристрасности, они нису безбедни и коришћење самоучећих неуронских мрежа обучених на огромним, нерегулисаним изворима мањкавих интернет података треба да се ограничи.[181]
Недостатак транспарентности
[уреди | уреди извор]Многи системи вештачке интелигенције су толико сложени да њихови дизајнери не могу да објасне како се долази до одлука.[182] То је посебно случај са дубоким неуронским мрежама, у којима постоји велика количина нелинеарних односа између улаза и излаза. Међутим постоје неке популарне технике за објашњавање.[183]
Било је много случајева где је програм машинског учења прошао ригорозне тестове, али је ипак научио нешто другачије од онога што су програмери намеравали. На пример, откривено је да систем који би могао да идентификује кожне болести боље од медицинских стручњака заправо има јаку тенденцију да класификује слике са лењиром као „канцерогене“, јер слике малигнитета обично укључују лењир који показује размеру.[184] Утврђено је да је један други систем машинског учења, који је осмишљен да помогне у ефикасној алокацији медицинских ресурса, класификује пацијенте са астмом да имају „ниски ризик” да умру од упале плућа. Имати астму је заправо озбиљан фактор ризика, али пошто би пацијенти са астмом обично добијали много више медицинске неге, релативно мало је вероватно да ће умрети према подацима обуке. Корелација између астме и ниског ризика од умирања од упале плућа била је стварна, али заваравајућа.[185]
Људи који су оштећени одлуком алгоритма имају право на објашњење. Од лекара се, на пример, захтева да јасно и потпуно објасне разлоге за сваку одлуку коју донесу.[186] Рани нацрти Опште уредбе о заштити података Европске уније из 2016. године укључивали су експлицитну изјаву да ово право постоји.[л] Стручњаци из индустрије су приметили да је ово нерешен проблем без решења на видику. Регулатори су тврдили да је штета ипак стварна: ако проблем нема решење, не треба користити алате.[187] DARPA је успоставила програм XAI („Објашњива вештачка интелигенција“) 2014. у покушају да се реше ови проблеми.[188]
Постоји неколико потенцијалних решења за проблем транспарентности. SHAP помаже да се визуелизује допринос сваке карактеристике резултату.[189] LIME може локално апроксимирати модел са једноставнијим моделом који се може интерпретирати.[190] Вишезадатно учење пружа велики број резултата поред циљне класификације. Ови други резултати могу помоћи развијачима да разлуче шта је мрежа научила.[191] Деконволуција, Дипдрим и друге генеративне методе могу омогућити стручњацима да виде шта су различити слојеви дубоке мреже научили и произведу излаз који може да сугерише шта мрежа учи.[192]
Конфликт, присмотра и наоружана вештачка интелигенција
[уреди | уреди извор]Смртоносно аутономно оружје је машина која лоцира, бира и ангажује људске мете без људског надзора.[љ] До 2015. године пријављено је да преко педесет земаља истражује роботе на бојном пољу.[194] Ово оружје се сматра посебно опасним из неколико разлога: ако убије невину особу, није јасно ко треба да одговара, мало је вероватно да ће поуздано изабрати мете, а ако се производи у великим размерама, то је потенцијално оружје за масовно уништење.[195] У 2014. години, 30 држава (укључујући Кину) подржало је забрану аутономног оружја у складу са Конвенцијом о одређеном конвенционалном оружју Уједињених нација, међутим Сједињене Државе и други се с тим нису сложили.[196]
Вештачка интелигенција пружа низ алата који су посебно корисни за ауторитарне владе: паметни шпијунски софтвер, препознавање лица и гласа омогућавају широко распрострањено праћење; такав надзор омогућава машинском учењу да класификује потенцијалне непријатеље државе и може спречити да се скривају; системи препорука могу прецизно испоручивати пропаганду и дезинформације ради максималног ефекта; дипфејкови и генеративна вештачка интелигенција помажу у стварању дезинформација; напредна вештачка интелигенција може учинити ауторитарно централизовано доношење одлука конкурентнијим либералним и децентрализованим системима као што су тржишта.[197]
Системи вештачке интелигенције за препознавање лица се користе за масовно надгледање, посебно у Кини.[198][199] Године 2019, Бенгалуру у Индији је поставио саобраћајне сигнале којима управља вештачка интелигенција. Овај систем користи камере за праћење густине саобраћаја и прилагођавање времена сигнала на основу интервала потребног за растерећење саобраћаја.[200] Терористи, криминалци и одметничке државе могу да користе наоружану вештачку интелигенцију као што је напредно дигитално ратовање и смртоносно аутономно оружје. Вештачка интелигенција са машинским учењем је такође у стању да дизајнира десетине хиљада токсичних молекула за неколико сати.[201]
Безбедносне смернице за протеине дизајниране вештачком интелигенцијом
[уреди | уреди извор]Истраживачи су покренули иницијативу која позива на безбедну и етичку употребу дизајна протеина. Добровољни напор долази након извештаја законодаваца, истраживачких центара и других организација које истражују могућност да алати вештачке интелигенције — у распону од мрежа за предвиђање структуре протеина као што је Алфафолд до великих језичких модела као што је онај који покреће ChatGPT — могу олакшати за развој биолошког оружја, укључујући нове токсине или високо преносиве вирусе. Нова иницијатива позива биодизајнерску заједницу да врши контролу и да се побољша скрининг синтезе ДНК, што је кључни корак у прављењу протеина дизајнираних посредством вештачке интелигенције, за потенцијално штетне молекуле.[202][203]
Технолошка незапосленост
[уреди | уреди извор]Од раних дана развоја вештачке интелигенције постојали су аргументи, на пример они које је изнео Џозеф Вајзенбаум, о томе да ли задатке које рачунари могу да обављају заправо они треба да раде, с обзиром на разлику између рачунара и људи, и између квантитативног израчунавања и квалитативног вредносног просуђивања.[204]
Економисти су често истицали ризике од отпуштања услед деловања вештачке интелигенције и спекулисали о незапослености уколико не постоји адекватна социјална политика за пуну запосленост.[205]
У прошлости, технологија је имала тенденцију да повећава, а не да смањује укупну запосленост, али економисти признају да смо „на неистраженој територији“ са вештачком интелигенцијом.[206][205] Економска истраживања су показала неслагање око тога да ли ће све већа употреба робота и вештачке интелигенције изазвати значајно повећање дугорочне незапослености, али се генерално слажу да би то могло бити нето корисно ако се прерасподели повећање продуктивности.[207] Процене ризика варирају; на пример, током 2010-их, Мајкл Озборн и Карл Бенедикт Фреј су проценили да је 47% радних места у САД изложено „високом ризику” од потенцијалне аутоматизације, док је један OECD извештај класификовао само 9% послова у САД као „високи ризик”.[м][209] Методологија спекулисања о будућим нивоима запослености је критикована по основи недостатка доказног темеља и због имплицирања да технологија, а не социјална политика, ствара незапосленост, за разлику од отпуштања.[205]
У контасту са претходним таласима аутоматизације, многи послови средње класе могу бити елиминисани вештачком интелигенцијом; The Economist је 2015. године навео да је „забринутост да би вештачка интелигенција могла да уради пословима белих оковратника оно што је парна енергија учинила онима са плавим оковратницима током индустријске револуције“ „вредно озбиљно разматрања“.[210] Екстремно ризични послови се крећу од правних помоћника до кувара брзе хране, док ће потражња вероватно порасти за професијама везаним за негу, од личне здравствене заштите до свештенства.[211]
У априлу 2023. објављено је да је 70% послова за кинеске илустраторе видео игрица елиминисано генеративном вештачком интелигенцијом.[212][213]
Егзистенцијални ризик
[уреди | уреди извор]Тврдило се да ће вештачка интелигенција постати толико моћна да би човечанство могло неповратно изгубити контролу над њом. Ово би, како је изјавио физичар Стивен Хокинг, могло да „доведе до краја људске расе“.[214] Овај сценарио је уобичајен у научној фантастици, када компјутер или робот изненада развију „самосвест“ (или „свесност“) налик човеку и постану злонамерни.[н] Ови сценарији научне фантастике су обмањујући на неколико начина.
Прво, вештачка интелигенција не захтева „свесност” налик људској да би била егзистенцијални ризик. Савременим програмима вештачке интелигенције дају се специфични циљеви и они користе учење и интелигенцију да би их постигли. Филозоф Ник Бостром је тврдио да ако неко зада скоро било који циљ довољно моћној вештачкој интелигенцији, она може изабрати да уништи човечанство да би то постигла (користио је пример менаџера фабрике спајалица).[216] Стјуарт Расел даје пример кућног робота који покушава да пронађе начин да убије свог власника како би спречио да буде искључен, резонујући да „не можеш донети кафу ако си мртав.“[217] Да би било безбедна за човечанство, суперинтелигенција би морала да буде истински усклађена са моралом и вредностима човечанства како би била „у основи на нашој страни“.[218]
Друго, Јувал Ноа Харари тврди да вештачкој интелигенцији није потребно тело робота или физичка контрола да би представљала егзистенцијални ризик. Есенцијални делови цивилизације нису физички. Ствари као што су идеологије, закон, [влада], новац и економија су говорне конструкције; постоје јер постоје приче у које верују милијарде људи. Тренутна преваленција дезинформација сугерише да би вештачка интелигенција могла да користи језик да убеди људе да верују у било шта, чак и да предузму акције које су деструктивне.[219]
Мишљења међу стручњацима и инсајдерима из индустрије нису јединствена, при чему постоје знатне фракције које су забринуте и као и оне које нису забринуте због ризика од евентуалне суперинтелигентне вештачке интелигенције.[220] Личности као што су Стивен Хокинг, Бил Гејтс и Елон Маск изразиле су забринутост због егзистенцијалног ризика од вештачке интелигенције.[221]
Почетком 2010-их, стручњаци су тврдили да су ризици у сувише удаљеној будућности да би оправдали истраживање или да ће људи бити вредни из перспективе суперинтелигентне машине.[222] Међутим, након 2016. године, проучавање садашњих и будућих ризика и могућих решења постало је озбиљна област истраживања.[223]
Пионири вештачке интелигенције, као што су Феј-Феј Ли, Џофри Хинтон, Јошуа Бенџо, Синтија Брезил, Рана ел Калиоуби, Демис Хасабис, Џој Буоламвини и Сам Олтман, изразили су забринутост због ризика од вештачке интелигенције. Године 2023, многи водећи стручњаци за вештачку интелигенцију издали су заједничку изјаву да би „ублажавање ризика од изумирања од вештачке интелигенције требало да буде глобални приоритет заједно са другим ризицима на друштвеном нивоу као што су пандемије и нуклеарни рат“.[224]
Други истраживачи су, међутим, говорили у прилог мање дистопијског гледишта. Пионир вештачке интелигенције Јирген Шмидубер није потписао заједничку изјаву, наглашавајући да се у 95% свих случајева истраживање вештачке интелигенције односи на настојање да „људски животи буду дужи, здравији и лакши“.[225] Док алати који се сада користе за побољшање живота исто тако могу да се користе у лоше сврхе, „они такође могу да се користе као негативни чиниоци.“[226][227] Ендру Нг је такође тврдио да је „грешка је наседати на гласине о вештачкој интелигенцији — и да ће регулатори који то чине имати само користи од стечених интереса."[228] Јан Лекан „исмијава дистопијске сценарије својих пандана препуне дезинформација, па чак и евентуално изумирање човечанства”.[229]
Ограничавање вештачке интелигенције
[уреди | уреди извор]Могуће опције за ограничавање вештачке интелигенције укључују: коришћење уграђене етике или уставне вештачке интелигенције где компаније или владе могу да уносе прописе, ограничавање високог нивоа рачунарске моћи у обуци, ограничавање могућности прераде сопствене кодне базе, ограничавање одређених техника вештачке интелигенције, али не у фази обуке, отворен код (транспарентност) у односу на власнички код (могао би бити у већој мери ограничен), резервни модел са редундантношћу, ограничавање безбедности, приватности и ауторских права, ограничавање или контрола меморије, праћење у реалном времену, анализа ризика, искључивање у хитним случајевима, ригорозна симулација и тестирање, сертификација модела, процена познатих рањивости, ограничавање материјала за обуку, ограничавање приступа интернету, издавање услова коришћења.
Етичке машине и усклађивање
[уреди | уреди извор]Пријатељска вештачка интелигенција су машине које су дизајниране од почетка да минимизирају ризике и да доносе одлуке од користи људима. Елизер Јадковски, који је сковао термин, тврди да развој пријатељске вештачке интелигенције треба да буде виши приоритет истраживања: то може захтевати велика улагања и мора бити окончано пре него што вештачка интелигенција постане егзистенцијални ризик.[230]
Машине са интелигенцијом имају потенцијал да искористе своју интелигенцију за доношење етичких одлука. Област машинске етике обезбеђује машинама етичке принципе и процедуре за решавање етичких дилема.[231] Област машинске етике се такође назива рачунарска моралност,[231] и основана је на AAAI симпозијуму 2005. године.[232]
Други приступи укључују „вештачке моралне агенте” Вендела Валаха[233] и три принципа Стјуарта Џ. Расела за развој доказано корисних машина.[234]
Оквири
[уреди | уреди извор]Пројекти вештачке интелигенције могу да се тестирају по основи њихове етичке прихватљивости током дизајнирања, развоја и имплементације система вештачке интелигенције. Оквир вештачке интелигенције као што је Пазите и поступајте оквир који садржи SUM вредности – који је развио Алан Тјурингов институт тестира пројекте у четири главне области:[235][236]
- Поштовање достојанство појединачних људи
- Повезивање са другим људима искрено, отворено и инклузивно
- Брига за добробит свих
- Заштита друштвених вредности, правде и јавног интереса
Остали напреци у етичким оквирима укључују оне о којима је одлучено током Асиломар конференције, Монтреалску декларацију за одговорну вештачку интелигенцију и иницијативу IEEE за етику аутономних система, између осталог;[237] међутим, ови принципи не пролазе без критике, посебно у погледу људски одабраних доприноса овим оквирима.[238]
Промовисање благостања људи и заједница на које ове технологије утичу захтева разматрање друштвених и етичких импликација у свим фазама дизајна, развоја и имплементације система вештачке интелигенције, као и сарадњу између радних улога као што су научници података, менаџери производа, инжењери података, доменски стручњаци и менаџери испоруке.[239]
Регулација
[уреди | уреди извор]Регулисање вештачке интелигенције је развој политика јавног сектора и закона за промовисање и регулисање вештачке интелигенције; стога је везано за ширу регулацију алгоритама.[240] Регулаторни и политички пејзаж за вештачку интелигенцију је ново питање у јурисдикцијама широм света.[241] Према станфордском Индексу вештачке интелигенције, годишњи број закона у вези са вештачком интелигенцијом усвојених у 127 разматраних земаља скочио је са једног усвојеног у 2016. на 37 усвојених само у 2022. години.[242][243] Између 2016. и 2020. године, више од 30 земаља усвојило је наменске стратегије за вештачку интелигенцију.[244] Већина држава чланица ЕУ објавила је националне стратегије вештачке интелигенције, као и Канада, Кина, Индија, Јапан, Маурицијус, Руска Федерација, Саудијска Арабија, Уједињени Арапски Емирати, САД и Вијетнам. Други су били у процесу израде сопствене стратегије вештачке интелигенције, укључујући Бангладеш, Малезију и Тунис.[244] Глобално партнерство за вештачку интелигенцију покренуто је у јуну 2020. године, наводећи потребу да се вештачка интелигенција развија у складу са људским правима и демократским вредностима, како би се обезбедило поверење јавности и поуздање у технологију.[244] Хенри Кисинџер, Ерик Шмит и Данијел Хатенлохер објавили су заједничку изјаву у новембру 2021. позивајући на владину комисију која би регулисала вештачку интелигенцију.[245] У 2023. години, лидери OpenAI објавили су препоруке за управљање суперинтелигенцијом, за коју верују да би се могло формирати за мање од 10 година.[246] Уједињене нације су 2023. године такође покренуле саветодавно тело за давање препорука о управљању вештачком интелигенцијом; тело се састоји од руководилаца технолошких компанија, владиних званичника и академика.[247]
У истраживању Ипсоса из 2022. године, ставови према вештачкој интелигенцији су се веома разликовали од земље до земље; 78% кинеских грађана, али само 35% Американаца, сложило се да „производи и услуге који користе вештачку интелигенцију имају више предности него недостатака“.[242] Анкета Ројтерс/Ипсоса из 2023. показала је да се 61% Американаца слаже, а 22% се не слаже, да вештачка интелигенција представља ризик за човечанство.[248] У анкети Фок Њуза из 2023. године, 35% Американаца мислило је да је то „веома важно”, а додатних 41% мислило је да је „донекле важно” да савезна влада регулише вештачку интелигенцију, наспрам 13% који је одговорило „не баш важно” и 8% је одговорило „уопште није важно”.[249][250]
У новембру 2023, одржан је први глобални Самит о безбедности вештачке интелигенције у Блечли парку у Великој Британији да би се разговарало о краткорочним и даљим ризицима вештачке интелигенције и могућности обавезних и добровољних регулаторних оквира.[251] Сет од 28 земаља, укључујући Сједињене Државе, Кину и Европску унију, издао је декларацију на почетку самита, позивајући на међународну сарадњу у управљању изазовима и ризицима вештачке интелигенције.[252][253]
Историја
[уреди | уреди извор]Историјски преглед развоја
[уреди | уреди извор]Појам вештачка интелигенција (ВИ), настаје лета 1956. године у Дартмуду, Хановер (САД), на скупу истраживача заинтересованих за теме интелигенције, неуронских мрежа и теорије аутомата. Скуп је организовао Џон Макарти, уједно са Клодом Шеноном, Марвином Минским и Н. Рочестером. На скупу су такође учествовали Т. Мур (Принстон), А. Семјуел (IBM), Р. Соломоноф и О. Селфриџ (МИТ), као и А. Невил, Х. Сајмон (Carnegie Tech, данас Карнеги Мелон универзитет). На скупу су постављене основе области вештачке интелигенције и трасиран пут за њен даљи развој.
Раније, 1950. године, Алан Тјуринг је објавио један чланак у ревији Мајнд ((Mind)), под насловом „Рачунари и интелигенција“, где говори о концепту вештачке интелигенције и поставља основе једне врсте пробе, преко које би се утврђивало да ли се одређени рачунарски систем понаша у складу са оним што се подразумева под вештачком интелигенцијом, или не. Касније ће та врста пробе добити име, Тјурингов тест.
Скуп је последица првих радова у области. Невил и Сајмон су на њему представили свој програм за аутоматско резоновање, Логик Теорист (који је направио сензацију). Данас се сматра да су концепт вештачке интелигенције поставили В. Мекулок и M. Питс, 1943. године, у раду у ком се представља модел вештачких неурона на бази три извора: спознаја о физиологији и функционисању можданих неурона, исказна логика Расела и Вајтехеда, и Тјурингова компутациона теорија. Неколико година касније створен је први неурални рачунар SNARC. Заслужни за подухват су студенти Принстона, Марвин Мински и Д. Едмонс, 1951. године. Негде из исте епохе су и први програми за шах, чији су аутори Шенон и Тјуринг.
Иако се ова истраживања сматрају зачетком вештачке интелигенције, постоје многа друга који су битно утицала на развој ове области. Нека потичу из области као што су филозофија (први покушаји формализације резоновања су силогизми грчког филозофа Аристотела), математика (теорија одлучивања и теорија пробабилитета се примењују у многим данашњим системима), или психологија (која је заједно са вештачком интелигенцијом формирала област когнитивне науке).
У годинама које следе скуп у Дартмуду постижу се значајни напреци. Конструишу се програми који решавају различите проблеме. На пример, студенти Марвина Минског су крајем шездесетих година имплементирати програм Analogy, који је оспособљен за решавање геометријских проблема, сличним онима који се јављају у тестовима интелигенције, и програм Студент, који решава алгебарске проблеме написане на енглеском језику. Невил и Сајмон ће развити General Problem Solver (ГПС), који покушава да имитира људско резоновање. Семјуел је написао програме за игру сличну дами, који су били оспособљени за учење те игре. Макарти, који је у међувремену отишао на МИТ, имплементира програмски језик Лисп, 1958. године. Исте године је написао чланак, Programs With Common Sense, где описује један хипотетички програм који се сматра првим комплетним системом вештачке интелигенције.
Ова серија успеха се ломи средином шездесетих година и превише оптимистичка предвиђања из ранијих година се фрустрирају. До тада имплементирани системи су функционисали у ограниченим доменима, познатим као микросветови (microworlds). Трансформација која би омогућила њихову примену у стварним окружењима није била тако лако изводљива, упркос очекивањима многих истраживача. По Раселу и Норивигу, постоје три фундаментална фактора који су то онемогућили:
- Многи дизајнирани системи нису поседовали сазнање о окружењу примене, или је имплементирано сазнање било врло ниског нивоа и састојало се од неких једноставних синтактичких манипулација.
- Многи проблеми које су покушавали решити су били у суштини нерешиви, боље речено, док је количина сазнања била мала и ограничена решење је било могуће, али када би дошло до пораста обима сазнања, проблеми постају нерешиви.
- Неке од основних структура које су се користиле за стварање одређеног интелигентног понашања су биле веома ограничене.
До тог момента решавање проблема је било засновано на једном механизму опште претраге преко којег се покушавају повезати, корак по корак, елементарне основе размишљања да би се дошло до коначног решења. Наравно такав приступ подразумева и велике издатке, те да би се смањили, развијају се први алгоритми за потребе контролисања трошкова истраживања. На пример, Едсхер Дајкстра 1959. године дизајнира један метод за стабилизацију издатака, Невил и Ернст, 1965. године развијају концепт хеуристичке претраге и Харт, Нилсон и Рафаел, алгоритам А. У исто време, у вези програма за игре, дефинише се претрага алфа-бета. Творац идеје је иначе био Макарти, 1956. године, а касније ју је користио Невил, 1958. године.
Важност схватања сазнања у контексту домена и примене, као и грађе структуре, којој би било лако приступати, довела је до детаљнијих студија метода представљања сазнања. Између осталих, дефинисале су се семантичке мреже (дефинисане почетком шездесетих година, од стране Килијана) и окружења (које је дефинисао Мински 1975. године). У истом периоду почињу да се користе одређене врсте логике за представљање сазнања.
Паралелно с тим, током истих година, настављају се истраживања за стварање система за игру чекерс, за који је заслужан Самуел, оријентисан на имплементацију неке врсте методе учења. Е. Б. Хунт, Ј. Мартин и П. Т. Стоне, 1969. године конструишу хијерархијску структуру одлука (ради класификације), коју је већ идејно поставио Шенон, 1949. године. Килијан, 1979, представља метод IDZ који треба да послужи као основа за конструкцију такве структуре. С друге стране, П. Винстон, 1979. године, развија властити програм за учење описа сложених објеката, и Т. Мичел, 1977, развија тзв. простор верзија. Касније, средином осамдесетих, поновна примена методе учења на неуралне мреже тзв., backpropagation, доводи до поновног оживљавања ове области. Конструкција апликација за стварна окружења, довела је до потребе разматрања аспеката као што су неизвесност, или непрецизност (који се такође јављају приликом решавања проблема у играма). За решавање ових проблема примењиване су пробабилистичке методе (теорија пробабилитета, или пробабилистичке мреже) и развијали други формализми као дифузни скупови (дефинисани од Л. Задеха 1965. године), или Демпстер-Шаферова теорија (творац теорије је А. Демпстер, 1968, са значајним доприносом Г. Шафера 1976. године). На основу ових истраживања, почев од осамдесетих година, конструишу се први комерцијални системи вештачке интелигенције, углавном тзв. експертски системи.
Савремени проблеми који се настоје решити у истраживањима вештачке интелигенције, везани су за настојања конструисања кооперативних система на бази агената, укључујући системе за управљање подацима, утврђивање редоследа обраде података и покушаје имитације природног језика, између осталих.
Историја вештачке интелигенције
[уреди | уреди извор]Проучавање механичког или „формалног” расуђивања почело је са филозофима и математичарима у антици. Проучавање логике довело је директно до теорије рачунања Алана Тјуринга, која је сугерисала да машина, мешањем симбола једноставних као што су „0“ и „1“, може да симулира математичку дедукцију и формално резоновање, које је познато као Черч-Тјурингова теза.[254] Ово, заједно са истовременим открићима у кибернетици и теорији информација, навело је истраживаче да размотре могућност изградње „електронског мозга“.[њ][256]
Алан Тјуринг је размишљао о машинској интелигенцији бар од 1941. године, када је дистрибуирао рад о машинској интелигенцији који би могао бити најранији рад у области вештачке интелигенције – иако је сада изгубљен.[8] Први доступни рад који је генерално препознат као „вештачка интелигенција“ био је Макалуков и Питсов дизајн за Тјуринг-комплетне „вештачке неуроне“ из 1943. године – први математички модел неуронске мреже.[257] На рад је утицао Тјурингов ранији рад „О израчунљивим бројевима“ из 1936. који је користио сличне логичке „неуроне“ са два стања, али је био први који их је применио на неуронске функције.[8]
Алан Туринг је током свог живота користио термин „машинска интелигенција“ која је касније често називана „вештачком интелигенцијом“ након његове смрти 1954. године. Тјуринг је 1950. године објавио најпознатији од својих радова „Рачунарска машинерија и интелигенција“, у које је представио свој концепт онога што је сада познато као Тјурингов тест широј јавности. Затим су уследила три Тјурингова радио-емисија о вештачкој интелигенцији, предавања: „Интелигентна машинерија, јеретичка теорија“, „Могу ли дигитални рачунари да мисле“? и панел дискусија „Може ли се за аутоматске рачунске машине рећи да мисле“. До 1956. године компјутерска интелигенција се у Британији активно изучавала више од једне деценије; тамо су написани најранији програми вештачке интелигенције током 1951–1952.[8]
Године 1951, коришћењем компјутера Феранти Марк 1 Универзитета у Манчестеру, написани су програми за игре дама и шах где је особа могла да игра против компјутера.[258] Област америчког истраживања вештачке интелигенције основана је на радионици на Дартмут колеџу 1956. године.[о][9] Полазници су постали лидери истраживања вештачке интелигенције током 1960-их.[п] Они и њихови студенти производили су програме које је штампа описала као „зачуђујуће”:[р] компјутери су учили стратегије игре дама, решавали проблеме са речима у алгебри, доказивали логичке теореме и говорили енглески.[с][10] Лабораторије за вештачку интелигенцију су основане на бројним британским и америчким универзитетима током касних 1950-их и раних 1960-их.[8]
Они су, међутим, потценили тежину проблема.[т] Америчка и британска влада прекинуле су експлоративна истраживања као одговор на критику сер Џејмса Лајхила[263] и стални притисак америчког Конгреса да финансира продуктивније пројекте. Минскијева и Папертова књига Перцептрони је схваћена као доказ да вештачке неуронске мреже никада неће бити корисне за решавање задатака у стварном свету, чиме се потпуно дискредитује приступ.[264] Уследила је „зима вештачке интелигенције“, период када је добијање средстава за пројекте вештачке интелигенције било тешко.[12]
Почетком 1980-их, истраживање вештачке интелигенције је оживело комерцијалним успехом експертских система,[265] облика програма вештачке интелигенције који је симулирао знање и аналитичке вештине људских стручњака. До 1985. године тржиште вештачке интелигенције достигло је преко милијарду долара. Истовремено, јапански компјутерски пројекат пете генерације инспирисао је владе САД и Велике Британије да поврате финансирање академских истраживања.[11] Међутим, почевши од колапса тржишта Лисп машина 1987. године, вештачка интелигенција је поново пала на лош глас и почела је друга, дуготрајнија зима.[13]
Многи истраживачи су почели да сумњају да ће садашње праксе бити у стању да имитирају све процесе људске спознаје, посебно перцепцију, роботику, учење и препознавање образаца.[266] Известан број истраживача је почео да истражује „подсимболичке“ приступе.[267] Истраживачи роботике, као што је Родни Брукс, одбацили су „репрезентацију“ уопштено и фокусирали се директно на инжењерске машине које се крећу и преживљавају.[ћ] Џудиа Перл, Лофти Задех и други развили су методе које су се бавиле непотпуним и несигурним информацијама правећи разборита нагађања, а не прецизном логиком.[91][272] Али најважнији развој је био оживљавање „конекционизма“, укључујући истраживање неуронских мрежа, од стране Џефрија Хинтона и других.[273] Јан Лекан је 1990. године успешно показао да конволуцијске неуронске мреже могу да препознају руком писане цифре, што је прва од многих успешних примена неуронских мрежа.[274]
Вештачка интелигенција је постепено обнављала своју репутацију крајем 1990-их и почетком 21. века коришћењем формалних математичких метода и проналажењем специфичних решења за специфичне проблеме. Овај „уски“ и „формални“ фокус омогућио је истраживачима да произведу проверљиве резултате и сарађују са другим областима (као што су статистика, економија и математика).[275] До 2000. решења која су развили истраживачи вештачке интелигенције била су у широкој употреби, иако су током 1990-их ретко описивана као „вештачка интелигенција“.[276]
Неколико академских истраживача је постало забринуто да вештачка интелигенција више не следи првобитни циљ стварања свестраних, потпуно интелигентних машина. Почевши од 2002. године, основали су подобласт вештачке опште интелигенције (или „AGI“), која је до 2010-их имала неколико добро финансираних институција.[17]
Дубоко учење је почело да доминира индустријским мерилима 2012. године и усвојено је у целој области.[14] За многе специфичне задатке, друге методе су напуштене.[у] Успех дубоког учења био је заснован и на побољшањима хардвера (бржи рачунари,[278] јединице за обраду графике, рачунарство у облаку[279]) и приступ великим количинама података[280] (укључујући куриране скупове података,[279] као што је ImageNet).
Успех дубоког учења довео је до огромног повећања интересовања и финансирања за вештачку интелигенцију.[ф] Количина истраживања машинског учења (мерена укупним бројем публикација) порасла је за 50% у годинама 2015–2019,[244] а WIPO је известио да је вештачка интелигенција била најплоднија технологија у настајању у смислу броја пријава патената и одобрених патената.[281] Према 'ВИ Impacts', око 50 милијарди долара годишње је уложено у вештачку интелигенцију око 2022. године само у САД и око 20% нових дипломаца из области рачунарских наука у САД специјализирало се за ту специјалност;[282] око 800.000 радних места везаних за вештачку интелигенцију настало је током 2022. у САД.[283] Велика већина напретка се догодила у Сједињеним Државама, са њиховим компанијама, универзитетима и истраживачким лабораторијама које воде истраживања вештачке интелигенције.[16]
У 2016. години, питања правичности и злоупотребе технологије су катапултирана у централно место на конференцијама о машинском учењу, учесталост публикација се знатно повећала, финансирање је постало доступно, а многи истраживачи су поново фокусирали своје каријере на ова питања. Проблем усклађивања постао је озбиљно поље академских студија.[223]
Филозофија
[уреди | уреди извор]Дефинисање вештачке интелигенције
[уреди | уреди извор]Алан Тјуринг је 1950. године написао: „Предлажем да размотримо питање 'могу ли машине да мисле'?“[284] Он је саветовао да се питање промени са да ли машина „мисли“, на „да ли је могуће или не да машине показују интелигентно понашање“.[284] Он је осмислио Тјурингов тест, који мери способност машине да симулира људски разговор.[285] Пошто можемо само да посматрамо понашање машине, није битно да ли она „заправо“ размишља или дословно има „ум“. Тјуринг напомиње да не можемо да одредимо ове ствари о другим људима,[х] али да „уобичајено да имамо љубазну конвенцију за коју сви мисле“.[286]
Расел и Норвиг се слажу са Тјурингом да вештачка интелигенција мора бити дефинисана у смислу „деловања“, а не „размишљања“.[287] Међутим, они су критични јер тест упоређује машине са људима. „Текстови ваздухопловног инжењерства“, написали су, „не дефинишу циљ своје области као прављење „машина које лете до те мере као голубови да могу да заварају друге голубове. Творац вештачке интелигенције Џон Макарти се сложио, пишући да „Вештачка интелигенција није, по дефиницији, симулација људске интелигенције“.[288]
Макарти дефинише интелигенцију као „компјутерски део способности да се постигну циљеви у свету“.[289] Други оснивач вештачке интелигенције, Марвин Мински, на је сличан начин дефинише као „способност решавања тешких проблема“.[290] Ове дефиниције посматрају интелигенцију у смислу добро дефинисаних проблема са добро дефинисаним решењима, где су тежина проблема и перформансе програма директне мере „интелигенције” машине - и није потребна никаква друга филозофска расправа, или можда не би била ни могућа.
Још једну дефиницију је усвојио Гугл,[291] главни практичар у области вештачке интелигенције. Ова дефиниција предвиђа способност система да синтетише информације као манифестацију интелигенције, слично као што је дефинисано у биолошкој интелигенцији.
Евалуација приступа вештачке интелигенције
[уреди | уреди извор]Ниједна успостављена обједињујућа теорија или парадигма није предводила истраживање вештачке интелигенције током већег дела њене историје.[ц] Невиђени успех статистичког машинског учења 2010-их засјенио је све друге приступе (толико да неки извори, посебно у пословном свету, користе термин „вештачка интелигенција” да значи „машинско учење са неуронским мрежама”). Овај приступ је углавном подсимболички, мекан и узак (види испод). Критичари тврде да ће будуће генерације истраживача вештачке интелигенције можда морати поново да размотре ова питања.
Симболичка вештачка интелигенција и његове границе
[уреди | уреди извор]Симболичка вештачка интелигенција (или „GOFAI“)[293] је симулирала свесно резоновање на високом нивоу које људи користе када решавају загонетке, изражавају правно резоновање и решавају математичке проблеме. Она је била веома успешна на „интелигентним” задацима као што су алгебра или тестови интелигенције. Током 1960-их, Њуел и Сајмон су предложили хипотезу о системима физичких симбола: „Физички систем симбола има неопходна и довољна средства опште интелигентне акције.“[294]
Међутим, симболички приступ није успео у многим задацима које људи лако решавају, као што су учење, препознавање предмета или здраворазумско размишљање. Моравецов парадокс је откриће да су „интелигентни“ задаци високог нивоа били лаки за вештачку интелигенцију, док су „инстинктивни“ задаци ниског нивоа били изузетно тешки.[295] Филозоф Хјуберт Драјфус је од 1960-их тврдио да људска стручност зависи од несвесног инстинкта, а не од свесне манипулације симболима, и од „осећаја“ за ситуацију, а не од експлицитног симболичког знања.[296] Иако су његови аргументи били исмевани и игнорисани када су први пут представљени, на крају су се истраживања вештачке интелигенције сложила са њим.[ч][22]
Проблем није решен: подсимболичко резоновање може направити многе од истих несагледивих грешака које чини људска интуиција, као што је алгоритамска пристрасност.[298][299][300] Критичари као што је Ноам Чомски тврде да ће наставак истраживања симболичке вештачке интелигенције и даље бити неопходан да би се остварила општа интелигенција,[301][302] делом зато што је подсимболична вештачка интелигенција вид удаљавања од објашњиве вештачке интелигенције: може бити тешко или немогуће разумети зашто савремени статистички програм вештачке интелигенције донео дату одлуку.[303][304][305][306] Ново поље неуро-симболичке вештачке интелигенције настоји да премости ова два приступа.[307][308][309]
Уредно наспрам неуредног
[уреди | уреди извор]„Уредни“ се надају да је интелигентно понашање описано коришћењем једноставних, елегантних принципа (као што су логика, оптимизација или неуронске мреже). „Неуредни” очекују да то нужно захтева решавање великог броја неповезаних проблема. Уредни бране своје програме теоретском строгошћу, а опозиција се углавном ослања на инкрементално тестирање да би видели да ли раде. О овом питању се активно расправљало током 1970-их и 1980-их,[310] али је на крају све то виђено као ирелевантно. Модерна вештачка интелигенција има елементе оба приступа.
Меко наспрам тврдог рачунарства
[уреди | уреди извор]Проналажење доказано исправног или оптималног решења је неоствариво за многе важне проблеме.[21] Меко рачунарство је скуп техника, укључујући генетске алгоритме,[311][312] расплинуту логику[313][314][315] и неуронске мреже, које су толерантне на непрецизност, неизвесност, делимичну истину и апроксимацију.[316][317][318][319][320] Меко рачунарство је уведено током касних 1980-их и најуспешнији програми вештачке интелигенције у 21. веку су примери меког рачунарства са неуронским мрежама.
Уска у односу на општу вештачку интелигенцију
[уреди | уреди извор]Истраживачи вештачке интелигенције су подељени око тога да ли да следе циљеве опште вештачке интелигенције и суперинтелигенције директно,[321][322][323][324] или да реше што је могуће више специфичних проблема (уска вештачка интелигенција[325][326][327][328][329]) у нади да ће ова решења индиректно довести до дугорочних циљева ове области.[330][331] Општу интелигенцију је тешко дефинисати и тешко је измерити, и савремена вештачка интелигенција је имала више проверљивих успеха при фокусирању на специфичне проблеме са специфичним решењима. Експериментална подобласт вештачке опште интелигенције проучава искључиво ову област.[332][333]
Машинска свест, разумевање и ум
[уреди | уреди извор]Филозофија ума не зна да ли машина може имати ум, свест и ментална стања, у истом смислу као и људска бића. Ово питање разматра унутрашња искуства машине, а не њено спољашње понашање. Главни ток истраживања вештачке интелигенције сматра ово питање ирелевантним, јер не утиче на циљеве ове области: да се направе машине које могу да решавају проблеме користећи интелигенцију. Расел и Норвиг додају да „додатни пројекат освешћивања машине на начин на који људи то попримају није онај за који смо опремљени да преузмемо.“[334] Међутим, питање је постало централно за филозофију ума. То је такође типично централно питање о вештачкој интелигенцији у фикцији.[335][336][337][338][339]
Свест
[уреди | уреди извор]Дејвид Чалмерс је идентификовао два проблема у разумевању ума, које је назвао „тешким“ и „лаким“ проблемима свести.[340] Лак проблем је разумети како мозак обрађује сигнале, прави планове и контролише понашање. Тежак проблем је објаснити како се ово осећа или зашто би уопште требало да се осећа као било шта, под претпоставком да смо у праву када мислимо да се то заиста осећа као нешто (Денетов илузионизам свести каже да је ово илузија). Људску обраду информација је лако објаснити, међутим, људско субјективно искуство је тешко објаснити. На пример, лако је замислити далтонисту који је научио да идентификује који су објекти у њиховом видном пољу црвени, али није јасно шта би било потребно да би особа знала како изгледа црвена.[341]
Компјутеризам и функционализам
[уреди | уреди извор]Компјутеризам је став у филозофији ума да је људски ум систем за обраду информација и да је размишљање облик рачунарства. Компјутеризам тврди да је однос између ума и тела сличан или идентичан односу између софтвера и хардвера и стога може бити решење за проблем ума и тела. Ова филозофска позиција је инспирисана радом истраживача вештачке интелигенције и когнитивних научника током 1960-их, а првобитно су је предложили филозофи Џери Фодор и Хилари Патнам.[342]
Филозоф Џон Сирл је ову позицију окарактерисао као „јаку вештачку интелигенцију“: „Одговарајуће програмирани рачунар са правим улазима и излазима би стога имао ум у потпуно истом смислу као и људска бића“.[џ] Сирл супротставља овој тврдњи свој аргумент кинеске собе, који покушава да покаже да, чак и ако машина савршено симулира људско понашање, још увек нема разлога да се претпостави да и она има ум.[346]
Социјала вештачке интелигенције и права
[уреди | уреди извор]Тешко је или немогуће поуздано проценити да ли је напредна вештачка интелигенција осетна (има способност да осећа), и ако јесте, у ком ступњу.[347] Међутим ако постоји значајна шанса да дата машина може да осети и пати, онда може имати право на одређена права или мере заштите добробити, слично животињама.[348][349] Разумност (скуп капацитета повезаних са високом интелигенцијом, као што је разлучивање или самосвест) може да пружи још једну моралну основу за права вештачке интелигенције.[348] Права робота се такође понекад предлажу као практичан начин интеграције аутономних агената у друштво.[350]
Европска унија је 2017. разматрала давање „електронске личности“ неким од најспособнијих система вештачке интелигенције. Слично правном статусу компанија, она би имала права, али и одговорности.[351] Критичари су 2018. тврдили да би давање права системима вештачке интелигенције умањило важност људских права и да би се законодавство требало фокусирати на потребе корисника, а не на спекулативне футуристичке сценарије. Такође су приметили да роботима недостаје аутономија да сами учествују у друштву.[352][353]
Напредак у вештачкој интелигенцији повећао је интересовање за ову тему. Заговорници благостања и права вештачке интелигенције често тврде да би осећај вештачке интелигенције, ако се појави, било посебно лако порећи. Они упозоравају да би ово могла бити морална слепа тачка аналогна ропству или фабричкој пољопривреди, што би могло довести до патње великих размера ако се створи разумна вештачка интелигенција и неопрезно искоришћава.[349][348]
Будућност
[уреди | уреди извор]Суперинтелигенција и сингуларност
[уреди | уреди извор]Суперинтелигенција је хипотетички агент који би поседовао интелигенцију која далеко надмашује интелигенцију најсјајнијег и најдаровитијег људског ума.[331]
Ако истраживање опште вештачке интелигенције произведе довољно интелигентан софтвер, он би могао да се репрограмира и побољша себе. Побољшани софтвер би био још бољи у побољшању самог себе, што би довело до онога што је И. Џ. Гуд назвао „експлозијом интелигенције“, а Вернор Винџ је назвао „сингуларитетом“.[354]
Међутим, технологије не могу да се побољшавају експоненцијално бесконачно и обично прате криву у облику слова S, успоравајући се када достигну физичке границе онога што технологија може да уради.[355]
Трансхуманизам
[уреди | уреди извор]Дизајнер робота Ханс Моравец, кибернетичар Кевин Ворвик и проналазач Реј Курцвајл су предвидели да ће се људи и машине у будућности спојити у киборге који су способнији и моћнији од било ког ентитета засебно. Ова идеја, названа трансхуманизам, има корене у делу Олдоуса Хакслија и Роберта Етингера.[356]
Едвард Фредкин тврди да је „вештачка интелигенција следећа фаза у еволуцији“, идеја коју је први пут предложио Семјуел Батлеров рад „Дарвин међу машинама“[357] још 1863. године, а проширио је Џорџ Дајсон у својој истоименој књизи 1998. године.[358]
У фикцији
[уреди | уреди извор]Вештачка бића која су способна да размишљају појављивала су се као средства за приповедање још од антике[364] и била су стална тема у научној фантастици.[365]
Уобичајени троп[366][367][368] у овим делима почео је са Мери Шелијевим Франкенштајном, где људска творевина постаје претња својим господарима. Ово укључује дела попут Артур К. Кларкове и Стенли Кјубрикове 2001: Одисеја у свемиру (оба 1968), са ХАЛ 9000, убиственим компјутером задуженим за свемирски брод Discovery One,[369][370][371] као и Терминатор (1984) и Матрикс (1999). Насупрот томе, ретки лојални роботи као што су Горт из Дана када је Земља стала (1951) и Бишоп из Ванземаљаца (1986) мање су истакнути у популарној култури.[372]
Исак Асимов је представио Три закона роботике у многим књигама и причама,[373][374][375][376] а посебно у серији „Мултивак“ о истоименом суперинтелигентном рачунару. Асимовљеви закони се често помињу током лаичких дискусија о машинској етици;[377] док су скоро сви истраживачи вештачке интелигенције упознати са Асимовљевим законима кроз популарну културу, они генерално сматрају да су закони бескорисни из много разлога, од којих је један њихова двосмисленост.[378]
Неколико радова користи вештачку интелигенцију као разлог за суочавање са фундаменталним питањем шта нас чини људима, показујући нам вештачка бића која имају способност да осећају, а самим тим и да пате. Ово се појављује у Р.У.Р. Карела Чапека, филмовима Вештачка интелигенција и Екс машина, као и роману Да ли Андроиди сањају електричне овце?, Филипа К. Дика. Дик разматра идеју да је наше разумевање људске субјективности измењено технологијом створеном вештачком интелигенцијом.[379]
Види још
[уреди | уреди извор]Напомене
[уреди | уреди извор]- ^ а б Ова листа интелигентних особина заснована је на темама које покривају главни ВИ уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
- ^ а б Ова листа алата је заснована на темама које покривају главни AI уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
- ^ То је један од разлога што су се експертски системи показали неефикасним за прикупљање знања.[36][37]
- ^ „Рационални агент“ је општи термин који се користи у економији, филозофији и теоријској вештачкој интелигенцији. Он се може се односити на било шта што усмерава своје понашање на постизање циљева, као што су особа, животиња, корпорација, нација или, у случају вештачке интелигенције, компјутерски програм.
- ^ Алан Тјуринг је расправљао о централној важности учења још 1950. године, у свом класичном раду „Рачунарска машина и интелигенција“.[48] Године 1956, на оригиналној Дартмутској ВИ летњој конференцији, Реј Соломоноф је написао извештај о ненадгледаном пробабилистичком машинском учењу: „Машина за индуктивно закључивање”.[49]
- ^ Погледајте ВИ зима § Машинско превођење и ALPAC извештај из 1966
- ^ У поређењу са симболичком логиком, формално Бајесово закључивање је рачунски скупо. Да би закључивање било прихватљиво, већина запажања мора бити условно независна једно од другог. AdSense користи Бајесову мрежу са преко 300 милиона веза да научи које огласе да приказује.[93]
- ^ Максимизација очекивања, један од најпопуларнијих алгоритама у машинском учењу, који омогућава груписање у присуству непознатих латентних варијабли.[95]
- ^ Неки облик дубоких неуронских мрежа (без специфичног алгоритма учења) описали су: Алан Тјуринг (1948);[119]] Френк Розенблат(1957);[119] Карл Стајнбух и Роџер Дејвид Џозеф (1961).[120] Дубоке или рекурентне мреже које су научиле (или користиле градијентно спуштање) развили су: Ернст Исинг и Вилхелм Ленц (1925);[121] Оливер Селфриџ (1959);[120] Алексеј Ивахненко и Валентин Лапа (1965);[121] Каору Накано (1977);[122] Шун-Ичи Амари (1972);[122] Џон Џозеф Хопфилд (1982).[122] Бекпропагацију су независно открили: Хенри Џ. Кели (1960);[119] Артур Е. Брисон (1962);[119] Стјуарт Дреифус (1962);[119] Артур Е. Брисон и Ју-Чи Хо (1969);[119] Сепо Линајнма (1970);[123] Пол Вербос (1974).[119] Заправо, пропагација уназад и спуштање градијента су директне примене правила Готфрид Лајбницовог ланчаног правила у калкулусу (1676),[124] и у суштини су идентичне (за један слој) методи најмањих квадрата, коју су независно развили Јохан Карл Фридрих Гаус (1795) и Адријен-Мари Лежандр (1805).[125] Вероватно има много других, које тек треба да открију историчари науке.
- ^ Џефри Хинтон је рекао, о свом раду на неуронским мрежама током 1990-их, „наши означени скупови података били су хиљаде пута премали. [и] наши рачунари су били милионима пута преспори.”[126]
- ^ Укључујући Џона Клајнберга (Корнел), Сендхила Мулајнатана (Универзитет у Чикагу), Синтију Чулдехову (Карнеги Мелон) и Сама Корбет-Дејвиса (Станфорд)[175]
- ^ Мориц Хардт (директор на Институту Макс Планк за интелигентне системе) тврди да је машинско учење „у основи погрешан алат за многе домене, где покушавате да дизајнирате интервенције и механизме који мењају свет“.[180]
- ^ Када је закон донет 2018. године, још је садржао форму ове одредбе.
- ^ Ово је дефиниција Уједињених нација и укључује исто тако направе као што су нагазне мине.[193]
- ^ Види табелу 4; 9% је просек OECD-а и просек САД.[208]
- ^ Понекад се назива „робокалипса”.[215]
- ^ „Електронски мозак“ је био термин који је штампа користила отприлике у то време.[255]
- ^ Даниел Кревиер је написао, „конференција је генерално призната као званични датум рођења нове науке.“[259] Расел и Норвиг су конференцију назвали „почетком вештачке интелигенције“.[257]
- ^ Расел и Норвиг су написали „у наредних 20 година овим пољем ће доминирати ови људи и њихови ученици“.[260]
- ^ Расел и Норвиг су написали „било је запањујуће кад год би рачунар урадио нешто паметно”.[261]
- ^ Описани програми су Артур Самјуелов програм игре даме за IBM 701, Даниел Бобровов STUDENT, Њуелов и Сајмонов Логички теоретичар и Тери Виноградов SHRDLU.
- ^ Расел и Норвиг су написали: „у скоро свим случајевима, ови рани системи нису били успешни на тежим проблемима“[262]
- ^ Отелотворене приступе вештачкој интелигенцији[268] заступали су Ханс Моравец[269] и Родни Брукс[270] и носили су бројна имена: Nouvelle AI,[270] развојна роботика,[271]
- ^ Матео Вонг је написао у Атлантику: „Док су деценијама области рачунарске науке као што су обрада природног језика, компјутерски вид и роботика користиле изузетно различите методе, сада сви користе метод програмирања који се зове „дубоко учење“. Као резултат тога, њихов код и приступи су постали сличнији, а њихови модели се лакше интегришу један у други."[277]
- ^ Џек Кларк је написао у Блумбергу: „После пола деценије тихих открића у вештачкој интелигенцији, 2015. је била значајна година. Рачунари су паметнији и уче брже него икад“, и приметио је да је број софтверских пројеката који користе машинско учење у Гуглу повећан са „спорадичне употребе” у 2012. на више од 2.700 пројеката у 2015.[279]
- ^ Погледајте Проблем других умова
- ^ Нилс Нилсон је 1983. написао: „Једноставно речено, постоји велика неслагања на терену око тога шта је вештачка интелигенција.”[292]
- ^ Данијел Кревијер је написао да је „време доказало тачност и проницљивост неких Драјфусових коментара. Да их је формулисао мање агресивно, конструктивне акције које су они предлагали могле су бити предузете много раније“.[297]
- ^ Серл је представио ову дефиницију „јаке вештачке интелигенције“ 1999. године.[343] Сирлова оригинална формулација је била „Одговарајуће програмирани рачунар је заиста ум, у смислу да се за компјутере којима су дати одговарајући програмима дословног може рећи да разумеју и имају друга когнитивна стања.“[344] Јаку вештачку интелигенцију су слично дефинисали Расел и Норвиг: „Јака вештачка интелигенција – тврдња да машине које то чине заправо размишљају (за разлику од симулације размишљања).“[345]
Референце
[уреди | уреди извор]- ^ Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4th изд.). Hoboken: Pearson. ISBN 978-0134610993. LCCN 20190474.
- ^ Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (на језику: енглески) (3rd изд.). New Delhi: Tata McGraw Hill India. ISBN 978-0070087705.
- ^ „Artificial Intelligence”. Архивирано из оригинала 21. 02. 2011. г. Приступљено 28. 3. 2013.
- ^ Hu, Krystal (2. 2. 2023). „ChatGPT sets record for fastest-growing user base – analyst note”. Reuters (на језику: енглески). Архивирано из оригинала 3. 2. 2023. г. Приступљено 3. 6. 2023.
- ^ Varanasi, Lakshmi (5. 1. 2023). „ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup's valuation to $29 billion”. Insider. Архивирано из оригинала 18. 1. 2023. г. Приступљено 18. 1. 2023.
- ^ Epstein, Ziv; Hertzmann, Aaron; Akten, Memo; et al. (2023). „Art and the science of generative AI”. Science. 380 (6650): 1110—1111. Bibcode:2023Sci...380.1110E. PMID 37319193. S2CID 259095707. arXiv:2306.04141 . doi:10.1126/science.adh4451.
- ^ Google (2016).
- ^ а б в г д Copeland, J., ур. (2004). The Essential Turing: the ideas that gave birth to the computer age (на језику: енглески). Oxford, England: Clarendon Press. ISBN 0-19-825079-7.
- ^ а б
Dartmouth workshop:
- Russell & Norvig (2021, стр. 18)
- McCorduck (2004, стр. 111–136)
- NRC (1999, стр. 200–201)
- ^ а б
Successful programs the 1960s:
- McCorduck (2004, стр. 243–252)
- Crevier (1993, стр. 52–107)
- Moravec (1988, стр. 9)
- Russell & Norvig (2021, стр. 19–21)
- ^ а б
Funding initiatives in the early 1980s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
- McCorduck (2004, стр. 426–441)
- Crevier (1993, стр. 161–162, 197–203, 211, 240)
- Russell & Norvig (2021, стр. 23)
- NRC (1999, стр. 210–211)
- Newquist (1994, стр. 235–248)
- ^ а б
First AI Winter, Lighthill report, Mansfield Amendment
- Crevier (1993, стр. 115–117)
- Russell & Norvig (2021, стр. 21–22)
- NRC (1999, стр. 212–213)
- Howe (1994)
- Newquist (1994, стр. 189–201)
- ^ а б
Second AI Winter:
- Russell & Norvig (2021, стр. 24)
- McCorduck (2004, стр. 430–435)
- Crevier (1993, стр. 209–210)
- NRC (1999, стр. 214–216)
- Newquist (1994, стр. 301–318)
- ^ а б Deep learning revolution, AlexNet:
- ^ Toews (2023).
- ^ а б Frank (2023).
- ^ а б в
Artificial general intelligence:
- Russell & Norvig (2021, стр. 32–33, 1020–1021)
- ^ Russell & Norvig (2021, §1.2).
- ^ Problem solving, puzzle solving, game playing and deduction:
- Russell & Norvig (2021, chpt. 3–5)
- Russell & Norvig (2021, chpt. 6) (constraint satisfaction)
- Poole, Mackworth & Goebel (1998, chpt. 2, 3, 7, 9)
- Luger & Stubblefield (2004, chpt. 3, 4, 6, 8)
- Nilsson (1998, chpt. 7–12)
- ^
Uncertain reasoning:
- Russell & Norvig (2021, chpt. 12–18)
- Poole, Mackworth & Goebel (1998, стр. 345–395)
- Luger & Stubblefield (2004, стр. 333–381)
- Nilsson (1998, chpt. 7–12)
- ^ а б в
Intractability and efficiency and the combinatorial explosion:
- Russell & Norvig (2021, стр. 21)
- ^ а б в Psychological evidence of the prevalence sub-symbolic reasoning and knowledge:
- ^
Knowledge representation and knowledge engineering:
- Russell & Norvig (2021, chpt. 10)
- Poole, Mackworth & Goebel (1998, стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
- Luger & Stubblefield (2004, стр. 227–243),
- Nilsson (1998, chpt. 17.1–17.4, 18)
- ^ Smoliar & Zhang (1994).
- ^ Neumann & Möller (2008).
- ^ Kuperman, Reichley & Bailey (2006).
- ^ McGarry (2005).
- ^ Bertini, Del Bimbo & Torniai (2006).
- ^ Russell & Norvig (2021), стр. 272.
- ^
Representing categories and relations: Semantic networks, description logics, inheritance (including frames and scripts):
- Russell & Norvig (2021, §10.2 & 10.5),
- Poole, Mackworth & Goebel (1998, стр. 174–177),
- Luger & Stubblefield (2004, стр. 248–258),
- Nilsson (1998, chpt. 18.3)
- ^ Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem):
- Russell & Norvig (2021, §10.3),
- Poole, Mackworth & Goebel (1998, стр. 281–298),
- Nilsson (1998, chpt. 18.2)
- ^
Causal calculus:
- Poole, Mackworth & Goebel (1998, стр. 335–337)
- ^
Representing knowledge about knowledge: Belief calculus, modal logics:
- Russell & Norvig (2021, §10.4),
- Poole, Mackworth & Goebel (1998, стр. 275–277)
- ^ а б
Default reasoning, Frame problem, default logic, non-monotonic logics, circumscription, closed world assumption, abduction:
- Russell & Norvig (2021, §10.6)
- Poole, Mackworth & Goebel (1998, стр. 248–256, 323–335)
- Luger & Stubblefield (2004, стр. 335–363)
- Nilsson (1998, ~18.3.3)
- ^ а б
Breadth of commonsense knowledge:
- Lenat & Guha (1989, Introduction)
- Crevier (1993, стр. 113–114) ,
- Moravec (1988, стр. 13),
- Russell & Norvig (2021, стр. 241, 385, 982) (qualification problem)
- ^ Newquist (1994), стр. 296.
- ^ Crevier (1993), стр. 204–208.
- ^ Russell & Norvig (2021), стр. 528.
- ^
Automated planning:
- Russell & Norvig (2021, chpt. 11).
- ^
Automated decision making, Decision theory:
- Russell & Norvig (2021, chpt. 16–18).
- ^
Classical planning:
- Russell & Norvig (2021, Section 11.2).
- ^
Sensorless or "conformant" planning, contingent planning, replanning (a.k.a online planning):
- Russell & Norvig (2021, Section 11.5).
- ^
Uncertain preferences:
- Russell & Norvig (2021, Section 16.7)
- Russell & Norvig (2021, Section 22.6)
- ^
Information value theory:
- Russell & Norvig (2021, Section 16.6).
- ^
Markov decision process:
- Russell & Norvig (2021, chpt. 17).
- ^
Game theory and multi-agent decision theory:
- Russell & Norvig (2021, chpt. 18).
- ^
Learning:
- Russell & Norvig (2021, chpt. 19–22)
- Poole, Mackworth & Goebel (1998, стр. 397–438)
- Luger & Stubblefield (2004, стр. 385–542)
- Nilsson (1998, chpt. 3.3, 10.3, 17.5, 20)
- ^ Turing (1950).
- ^ Solomonoff (1956).
- ^
Unsupervised learning:
- Russell & Norvig (2021, стр. 653) (definition)
- Russell & Norvig (2021, стр. 738–740) (cluster analysis)
- Russell & Norvig (2021, стр. 846–860) (word embedding)
- ^ а б
Supervised learning:
- Russell & Norvig (2021, §19.2) (Definition)
- Russell & Norvig (2021, Chpt. 19–20) (Techniques)
- ^
Reinforcement learning:
- Russell & Norvig (2021, chpt. 22)
- Luger & Stubblefield (2004, стр. 442–449)
- ^
Transfer learning:
- Russell & Norvig (2021, стр. 281)
- The Economist (2016)
- ^ „Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In”. builtin.com. Приступљено 30. 10. 2023.
- ^
Computational learning theory:
- Russell & Norvig (2021, стр. 672–674)
- Jordan & Mitchell (2015)
- ^
Natural language processing (NLP):
- Russell & Norvig (2021, chpt. 23–24)
- Poole, Mackworth & Goebel (1998, стр. 91–104)
- Luger & Stubblefield (2004, стр. 591–632)
- ^
Subproblems of NLP:
- Russell & Norvig (2021, стр. 849–850)
- ^ Russell & Norvig (2021), стр. 856–858.
- ^ Dickson (2022).
- ^ Modern statistical and deep learning approaches to NLP:
- Russell & Norvig (2021, chpt. 24)
- Cambria & White (2014)
- ^ Vincent (2019).
- ^ Russell & Norvig (2021), стр. 875–878.
- ^ Bushwick (2023).
- ^
Computer vision:
- Russell & Norvig (2021, chpt. 25)
- Nilsson (1998, chpt. 6)
- ^ Russell & Norvig (2021), стр. 849–850.
- ^ Russell & Norvig (2021), стр. 895–899.
- ^ Russell & Norvig (2021), стр. 899–901.
- ^ Russell & Norvig (2021), стр. 931–938.
- ^ MIT AIL (2014).
- ^ Affective computing:
- ^ Waddell (2018).
- ^ Poria et al. (2017).
- ^
Search algorithms:
- Russell & Norvig (2021, Chpt. 3–5)
- Poole, Mackworth & Goebel (1998, стр. 113–163)
- Luger & Stubblefield (2004, стр. 79–164, 193–219)
- Nilsson (1998, chpt. 7–12)
- ^
State space search:
- Russell & Norvig (2021, chpt. 3)
- ^ Russell & Norvig (2021), §11.2.
- ^ Uninformed searches (breadth first search, depth-first search and general state space search):
- Russell & Norvig (2021, §3.4)
- Poole, Mackworth & Goebel (1998, стр. 113–132)
- Luger & Stubblefield (2004, стр. 79–121)
- Nilsson (1998, chpt. 8)
- ^
Heuristic or informed searches (e.g., greedy best first and A*):
- Russell & Norvig (2021, s§3.5)
- Poole, Mackworth & Goebel (1998, стр. 132–147)
- Poole & Mackworth (2017, §3.6)
- Luger & Stubblefield (2004, стр. 133–150)
- ^
Adversarial search:
- Russell & Norvig (2021, chpt. 5)
- ^ Local or "optimization" search:
- Russell & Norvig (2021, chpt. 4)
- ^ Singh Chauhan, Nagesh (18. 12. 2020). „Optimization Algorithms in Neural Networks”. KDnuggets (на језику: енглески). Приступљено 13. 01. 2024.
- ^
Evolutionary computation:
- Russell & Norvig (2021, §4.1.2)
- ^ Merkle & Middendorf (2013).
- ^
Logic:
- Russell & Norvig (2021, chpt. 6–9)
- Luger & Stubblefield (2004, стр. 35–77)
- Nilsson (1998, chpt. 13–16)
- ^
Propositional logic:
- Russell & Norvig (2021, chpt. 6)
- Luger & Stubblefield (2004, стр. 45–50)
- Nilsson (1998, chpt. 13)
- ^
First-order logic and features such as equality:
- Russell & Norvig (2021, chpt. 7)
- Poole, Mackworth & Goebel (1998, стр. 268–275),
- Luger & Stubblefield (2004, стр. 50–62),
- Nilsson (1998, chpt. 15)
- ^ Logical inference:
- Russell & Norvig (2021, chpt. 10)
- ^ Russell & Norvig (2021), §8.3.1.
- ^
Resolution and unification:
- Russell & Norvig (2021, §7.5.2, §9.2, §9.5)
- ^ Forward chaining, backward chaining, Horn clauses, and logical deduction as search:
- Russell & Norvig (2021, §9.3, §9.4)
- Poole, Mackworth & Goebel (1998, стр. ~46–52)
- Luger & Stubblefield (2004, стр. 62–73)
- Nilsson (1998, chpt. 4.2, 7.2)
- ^
Fuzzy logic:
- Russell & Norvig (2021, стр. 214, 255, 459)
- Scientific American (1999)
- ^ а б
Stochastic methods for uncertain reasoning:
- Russell & Norvig (2021, Chpt. 12–18 and 20),
- Poole, Mackworth & Goebel (1998, стр. 345–395),
- Luger & Stubblefield (2004, стр. 165–191, 333–381),
- Nilsson (1998, chpt. 19)
- ^
Bayesian networks:
- Russell & Norvig (2021, §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2 -20.3),
- Poole, Mackworth & Goebel (1998, стр. 361–381),
- Luger & Stubblefield (2004, стр. ~182–190, ≈363–379),
- Nilsson (1998, chpt. 19.3–4)
- ^ Domingos (2015), chapter 6.
- ^ Bayesian inference algorithm:
- Russell & Norvig (2021, §13.3–13.5),
- Poole, Mackworth & Goebel (1998, стр. 361–381),
- Luger & Stubblefield (2004, стр. ~363–379),
- Nilsson (1998, chpt. 19.4 & 7)
- ^ Domingos (2015), стр. 210.
- ^
Bayesian learning and the expectation-maximization algorithm:
- Russell & Norvig (2021, Chpt. 20),
- Poole, Mackworth & Goebel (1998, стр. 424–433),
- Nilsson (1998, chpt. 20)
- Domingos (2015, стр. 210)
- ^ Bayesian decision theory and Bayesian decision networks:
- Russell & Norvig (2021, §16.5)
- ^ а б в
Stochastic temporal models:
- Russell & Norvig (2021, Chpt. 14)
- Russell & Norvig (2021, §14.3)
- Russell & Norvig (2021, §14.4)
- Russell & Norvig (2021, §14.5)
- ^
decision theory and decision analysis:
- Russell & Norvig (2021, Chpt. 16–18),
- Poole, Mackworth & Goebel (1998, стр. 381–394)
- ^
Information value theory:
- Russell & Norvig (2021, §16.6)
- ^ Markov decision processes and dynamic decision networks:
- Russell & Norvig (2021, chpt. 17)
- ^ Game theory and mechanism design:
- Russell & Norvig (2021, chpt. 18)
- ^
Statistical learning methods and classifiers:
- Russell & Norvig (2021, chpt. 20),
- ^
Decision trees:
- Russell & Norvig (2021, §19.3)
- Domingos (2015, стр. 88)
- ^ Non-parameteric learning models such as K-nearest neighbor and support vector machines:
- Russell & Norvig (2021, §19.7)
- Domingos (2015, стр. 187) (k-nearest neighbor)
- Domingos (2015, стр. 88) (kernel methods)
- ^ Domingos (2015), стр. 152.
- ^
Naive Bayes classifier:
- Russell & Norvig (2021, §12.6)
- Domingos (2015, стр. 152)
- ^ а б
Neural networks:
- Russell & Norvig (2021, Chpt. 21),
- Domingos (2015, Chapter 4)
- ^
Gradient calculation in computational graphs, backpropagation, automatic differentiation:
- Russell & Norvig (2021, §21.2),
- Luger & Stubblefield (2004, стр. 467–474),
- Nilsson (1998, chpt. 3.3)
- ^
Universal approximation theorem:
- Russell & Norvig (2021, стр. 752) The theorem:
- ^
Feedforward neural networks:
- Russell & Norvig (2021, §21.1)
- ^
Recurrent neural networks:
- Russell & Norvig (2021, §21.6)
- ^
Perceptrons:
- Russell & Norvig (2021, стр. 21, 22, 683, 22)
- ^ а б Deep learning:
- ^
Convolutional neural networks:
- Russell & Norvig (2021, §21.3)
- ^ Deng & Yu (2014), стр. 199–200.
- ^ Ciresan, Meier & Schmidhuber (2012).
- ^ Russell & Norvig (2021), стр. 751.
- ^ а б в г д ђ е Russell & Norvig (2021), стр. 785.
- ^ а б Schmidhuber (2022), §5.
- ^ а б Schmidhuber (2022), §6.
- ^ а б в Schmidhuber (2022), §7.
- ^ Schmidhuber (2022), §8.
- ^ Schmidhuber (2022), §2.
- ^ Schmidhuber (2022), §3.
- ^ Quoted in Christian (2020, стр. 22)
- ^ Smith (2023).
- ^ „Explained: Generative AI”. 9. 11. 2023.
- ^ „AI Writing and Content Creation Tools”. MIT Sloan Teaching & Learning Technologies. Приступљено 25. 12. 2023.
- ^ Marmouyet (2023).
- ^ Kobielus (2019).
- ^ Davenport, T; Kalakota, R (јун 2019). „The potential for artificial intelligence in healthcare”. Future Healthc J. (на језику: енглески). 6 (2): 94—98. PMC 6616181 . PMID 31363513. doi:10.7861/futurehosp.6-2-94.
- ^ а б Bax, Monique; Thorpe, Jordan; Romanov, Valentin (децембар 2023). „The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence”. Frontiers in Sensors (на језику: енглески). 4. ISSN 2673-5067. doi:10.3389/fsens.2023.1294721 .
- ^ Jumper, J; Evans, R; Pritzel, A (2021). „Highly accurate protein structure prediction with AlphaFold”. Nature (на језику: енглески). 596 (7873): 583—589. Bibcode:2021Natur.596..583J. PMC 8371605 . PMID 34265844. doi:10.1038/s41586-021-03819-2.
- ^ „AI discovers new class of antibiotics to kill drug-resistant bacteria”. 2023-12-20.
- ^ Grant, Eugene F.; Lardner, Rex (25. 07. 1952). „The Talk of the Town – It”. The New Yorker (на језику: енглески). ISSN 0028-792X. Приступљено 28. 01. 2024.
- ^ Anderson, Mark Robert (11. 05. 2017). „Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution”. The Conversation (на језику: енглески). Приступљено 28. 01. 2024.
- ^ Markoff, John (16. 02. 2011). „Computer Wins on 'Jeopardy!': Trivial, It's Not”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 28. 01. 2024.
- ^ Byford, Sam (27. 05. 2017). „AlphaGo retires from competitive Go after defeating world number one 3-0”. The Verge (на језику: енглески). Приступљено 28. 01. 2024.
- ^ Brown, Noam; Sandholm, Tuomas (30. 08. 2019). „Superhuman AI for multiplayer poker”. Science (на језику: енглески). 365 (6456): 885—890. ISSN 0036-8075. doi:10.1126/science.aay2400.
- ^ „MuZero: Mastering Go, chess, shogi and Atari without rules”. Google DeepMind (на језику: енглески). 23. 12. 2020. Приступљено 28. 01. 2024.
- ^ Sample, Ian (30. 10. 2019). „AI becomes grandmaster in 'fiendishly complex' StarCraft II”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 28. 01. 2024.
- ^ Wurman, P.R.; Barrett, S.; Kawamoto, K. (2022). „Outracing champion Gran Turismo drivers with deep reinforcement learning”. Nature. 602 (7896): 223—228. doi:10.1038/s41586-021-04357-7.
- ^ а б в Congressional Research Service (2019). Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service.PD-notice
- ^ а б Slyusar, Vadym (2019). „Artificial intelligence as the basis of future control networks”. ResearchGate. doi:10.13140/RG.2.2.30247.50087.
- ^ Knight, Will. „The US and 30 Other Nations Agree to Set Guardrails for Military AI”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 24. 01. 2024.
- ^ Marcelline, Marco (27. 5. 2023). „ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot”. PCMag (на језику: енглески). Приступљено 28. 01. 2024.
- ^ Lu, Donna (31. 03. 2023). „Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 28. 01. 2024.
- ^ Hurst, Luke (23. 05. 2023). „How a fake image of a Pentagon explosion shared on Twitter caused a real dip on Wall Street”. euronews (на језику: енглески). Приступљено 28. 01. 2024.
- ^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (06. 09. 2017). „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (на језику: енглески). Архивирано из оригинала 13. 2. 2024. г.
- ^ Simonite (2016).
- ^ Russell & Norvig (2021), стр. 987.
- ^ Laskowski (2023).
- ^ GAO (2022).
- ^ Valinsky (2019).
- ^ Russell & Norvig (2021), стр. 991.
- ^ Russell & Norvig (2021), стр. 991–992.
- ^ Christian (2020), стр. 63.
- ^ Vincent (2022).
- ^ Reisner (2023).
- ^ Alter & Harris (2023).
- ^ Nicas (2018).
- ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22. 7. 2019). „Trust and Distrust in America”. Pew Research Center. Архивирано из оригинала 22. 2. 2024. г.
- ^ Williams (2023).
- ^ Taylor & Hern (2023).
- ^ а б Rose (2023).
- ^ CNA (2019).
- ^ Goffrey (2008), стр. 17.
- ^ Berdahl et al. (2023); Goffrey (2008, стр. 17); Rose (2023); Russell & Norvig (2021, стр. 995)
- ^
Algorithmic bias and Fairness (machine learning):
- Russell & Norvig (2021, section 27.3.3)
- Christian (2020, Fairness)
- ^ Christian (2020), стр. 25.
- ^ а б Russell & Norvig (2021), стр. 995.
- ^ Grant & Hill (2023).
- ^ Larson & Angwin (2016).
- ^ Christian (2020), стр. 67–70.
- ^ Christian (2020, стр. 67–70); Russell & Norvig (2021, стр. 993–994)
- ^ Russell & Norvig (2021, стр. 995); Lipartito (2011, стр. 36); Goodman & Flaxman (2017, стр. 6); Christian (2020, стр. 39–40, 65)
- ^ Quoted in Christian (2020, стр. 65).
- ^ Russell & Norvig (2021, стр. 994); Christian (2020, стр. 40, 80–81)
- ^ Quoted in Christian (2020, стр. 80)
- ^ Dockrill (2022).
- ^ Sample (2017).
- ^ „Black Box AI”. 16. 6. 2023.
- ^ Christian (2020), стр. 110.
- ^ Christian (2020), стр. 88–91.
- ^ Christian (2020, стр. 83); Russell & Norvig (2021, стр. 997)
- ^ Christian (2020), стр. 91.
- ^ Christian (2020), стр. 83.
- ^ Verma (2021).
- ^ Rothman (2020).
- ^ Christian (2020), стр. 105-108.
- ^ Christian (2020), стр. 108–112.
- ^ Russell & Norvig (2021), стр. 989.
- ^ Robitzski (2018); Sainato (2015)
- ^ Russell & Norvig (2021), стр. 987-990.
- ^ Russell & Norvig (2021), стр. 988.
- ^ Harari (2018).
- ^ Buckley, Chris; Mozur, Paul (22. 5. 2019). „How China Uses High-Tech Surveillance to Subdue Minorities”. The New York Times.
- ^ „Security lapse exposed a Chinese smart city surveillance system”. 3. 5. 2019. Архивирано из оригинала 7. 3. 2021. г. Приступљено 14. 9. 2020.
- ^ „AI traffic signals to be installed in Bengaluru soon”. NextBigWhat (на језику: енглески). 24. 9. 2019. Архивирано из оригинала 01. 10. 2019. г. Приступљено 1. 10. 2019.
- ^ Urbina et al. (2022).
- ^ Ewen Callaway. „Could AI-designed proteins be weaponized? Scientists lay out safety guidelines?”.
- ^ Ewen Callaway (2023-07-11). „AI tools are designing entirely new proteins that could transform medicine”.
- ^ Tarnoff, Ben (4. 8. 2023). „Lessons from Eliza”. The Guardian Weekly. стр. 34—9.
- ^ а б в McGaughey, Ewan (2022). „Will Robots Automate Your Job Away? Full Employment, Basic Income and Economic Democracy”. Industrial Law Journal. 51 (3): 511—559. doi:10.1093/indlaw/dwab010.
- ^ Ford & Colvin (2015)
- ^ IGM Chicago (2017).
- ^ Arntz, Gregory & Zierahn (2016), стр. 33.
- ^ Lohr (2017); Frey & Osborne (2017); Arntz, Gregory & Zierahn (2016, стр. 33)
- ^ Morgenstern (2015).
- ^ Mahdawi (2017); Thompson (2014)
- ^ Zhou, Viola (11. 04. 2023). „AI is already taking video game illustrators' jobs in China”. Rest of World (на језику: енглески). Приступљено 17. 08. 2023.
- ^ Carter, Justin (11. 04. 2023). „China's game art industry reportedly decimated by growing AI use”. Game Developer (на језику: енглески). Приступљено 17. 08. 2023.
- ^ Cellan-Jones (2014).
- ^ Russell & Norvig 2021, стр. 1001.
- ^ Bostrom (2014).
- ^ Russell (2019).
- ^ Bostrom (2014); Müller & Bostrom (2014); Bostrom (2015).
- ^ Harari (2023).
- ^ Müller & Bostrom (2014).
- ^ Leaders' concerns about the existential risks of ВИ around 2015:
- ^ Arguments that ВИ is not an imminent risk:
- ^ а б Christian (2020), стр. 67, 73.
- ^ Valance (2023).
- ^ Taylor, Josh (7. 5. 2023). „Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says”. The Guardian (на језику: енглески). Приступљено 26. 5. 2023.
- ^ Colton, Emma (7. 5. 2023). „'Father of AI' says tech fears misplaced: 'You cannot stop it'”. Fox News (на језику: енглески). Приступљено 26. 5. 2023.
- ^ Jones, Hessie (23. 5. 2023). „Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia”. Forbes (на језику: енглески). Приступљено 26. 5. 2023.
- ^ McMorrow, Ryan (19. 12. 2023). „Andrew Ng: 'Do we think the world is better off with more or less intelligence?'”. Financial Times (на језику: енглески). Приступљено 30. 12. 2023.
- ^ Levy, Steven (22. 12. 2023). „How Not to Be Stupid About AI, With Yann LeCun”. Wired (на језику: енглески). Приступљено 30. 12. 2023.
- ^ Yudkowsky (2008).
- ^ а б Anderson & Anderson (2011).
- ^ AAAI (2014).
- ^ Wallach (2010).
- ^ Russell (2019), стр. 173.
- ^ Alan Turing Institute (2019). „Understanding artificial intelligence ethics and safety” (PDF).
- ^ Alan Turing Institute (2023). „AI Ethics and Governance in Practice” (PDF).
- ^ Floridi, Luciano; Cowls, Josh (23. 06. 2019). „A Unified Framework of Five Principles for AI in Society”. Harvard Data Science Review (на језику: енглески). 1 (1). S2CID 198775713. doi:10.1162/99608f92.8cd550d1 .
- ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (01. 09. 2020). „A critical perspective on guidelines for responsible and trustworthy artificial intelligence”. Medicine, Health Care and Philosophy (на језику: енглески). 23 (3): 387—399. ISSN 1572-8633. PMID 32236794. S2CID 214766800. doi:10.1007/s11019-020-09948-1.
- ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (01. 01. 2023). „Ethical issues in the development of artificial intelligence: recognizing the risks”. International Journal of Ethics and Systems. ahead-of-print (ahead-of-print). ISSN 2514-9369. S2CID 259614124. doi:10.1108/IJOES-05-2023-0107.
- ^ Regulation of AI to mitigate risks:
- ^ Law Library of Congress (U.S.). Global Legal Research Directorate (2019).
- ^ а б Vincent (2023).
- ^ Stanford University (2023).
- ^ а б в г UNESCO (2021).
- ^ Kissinger (2021).
- ^ Altman, Brockman & Sutskever (2023).
- ^ VOA News (25. 10. 2023). „UN Announces Advisory Body on Artificial Intelligence”.
- ^ Edwards (2023).
- ^ Kasperowicz (2023).
- ^ Fox News (2023).
- ^ Milmo, Dan (3. 11. 2023). „Hope or Horror? The great AI debate dividing its pioneers”. The Guardian Weekly. стр. 10—12.
- ^ „The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023”. GOV.UK. 1. 11. 2023. Архивирано из оригинала 1. 11. 2023. г. Приступљено 2. 11. 2023.
- ^ „Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration”. GOV.UK (Саопштење). Архивирано из оригинала 1. 11. 2023. г. Приступљено 1. 11. 2023.
- ^ Berlinski (2000).
- ^ „Google books ngram”.
- ^
AI's immediate precursors:
- McCorduck (2004, стр. 51–107)
- Crevier (1993, стр. 27–32)
- Russell & Norvig (2021, стр. 8–17)
- Moravec (1988, стр. 3)
- ^ а б Russell & Norvig (2021), стр. 17.
- ^ See "A Brief History of Computing" at AlanTuring.net.
- ^ Crevier (1993), стр. 47–49.
- ^ Russell & Norvig (2003), стр. 17.
- ^ Russell & Norvig (2003), стр. 18.
- ^ Russell & Norvig (2021), стр. 21.
- ^ Lighthill (1973).
- ^ Russell & Norvig (2021), стр. 22.
- ^
Expert systems:
- Russell & Norvig (2021, стр. 23, 292)
- Luger & Stubblefield (2004, стр. 227–331)
- Nilsson (1998, chpt. 17.4)
- McCorduck (2004, стр. 327–335, 434–435)
- Crevier (1993, стр. 145–62, 197–203)
- Newquist (1994, стр. 155–183)
- ^ Russell & Norvig (2021), стр. 24.
- ^ Nilsson (1998), стр. 7.
- ^ McCorduck (2004), стр. 454–462.
- ^ Moravec (1988).
- ^ а б Brooks (1990).
- ^ Developmental robotics:
- ^ Russell & Norvig (2021), стр. 25.
- ^
- Crevier (1993, стр. 214–215)
- Russell & Norvig (2021, стр. 24, 26)
- ^ Russell & Norvig (2021), стр. 26.
- ^
Formal and narrow methods adopted in the 1990s:
- Russell & Norvig (2021, стр. 24–26)
- McCorduck (2004, стр. 486–487)
- ^
AI widely used in the late 1990s:
- Kurzweil (2005, стр. 265)
- NRC (1999, стр. 216–222)
- Newquist (1994, стр. 189–201)
- ^ Wong (2023).
- ^
Moore's Law and AI:
- Russell & Norvig (2021, стр. 14, 27)
- ^ а б в Clark (2015b).
- ^
Big data:
- Russell & Norvig (2021, стр. 26)
- ^ „Intellectual Property and Frontier Technologies”. WIPO. Архивирано из оригинала 2. 4. 2022. г. Приступљено 30. 3. 2022.
- ^ DiFeliciantonio (2023).
- ^ Goswami (2023).
- ^ а б Turing (1950), стр. 1.
- ^
Turing's original publication of the Turing test in "Computing machinery and intelligence":
Historical influence and philosophical implications:
- Haugeland (1985, стр. 6–9)
- Crevier (1993, стр. 24)
- McCorduck (2004, стр. 70–71)
- Russell & Norvig (2021, стр. 2 and 984)
- ^ Turing (1950), Under "The Argument from Consciousness".
- ^ Russell & Norvig (2021), chpt. 2.
- ^ Maker (2006).
- ^ McCarthy (1999).
- ^ Minsky (1986).
- ^ „What Is Artificial Intelligence (AI)?”. Google Cloud Platform. Архивирано из оригинала 31. 7. 2023. г. Приступљено 16. 10. 2023.
- ^ Nilsson (1983), стр. 10.
- ^ Haugeland (1985), стр. 112–117.
- ^
Physical symbol system hypothesis:
- Newell & Simon (1976, стр. 116)
- McCorduck (2004, стр. 153)
- Russell & Norvig (2021, стр. 19)
- ^
Moravec's paradox:
- Moravec (1988, стр. 15–16)
- Minsky (1986, стр. 29)
- Pinker (2007, стр. 190–91)
- ^
Dreyfus' critique of AI:
Historical significance and philosophical implications:
- Crevier (1993, стр. 120–132)
- McCorduck (2004, стр. 211–239)
- Russell & Norvig (2021, стр. 981–982)
- Fearn (2007, Chpt. 3)
- ^ Crevier (1993), стр. 125.
- ^ Suresh, Harini; Guttag, John (04. 11. 2021). „A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle”. Equity and Access in Algorithms, Mechanisms, and Optimization. EAAMO '21. New York, NY, USA: Association for Computing Machinery. стр. 1—9. ISBN 978-1-4503-8553-4. S2CID 235436386. doi:10.1145/3465416.3483305.
- ^ Striphas, Ted (фебруар 2012). „What is an Algorithm? – Culture Digitally”. culturedigitally.org. Приступљено 20. 11. 2017.
- ^ Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to Algorithms (3rd изд.). Cambridge, Mass.: MIT Press. стр. 5. ISBN 978-0-262-03384-8.
- ^ Langley (2011).
- ^ Katz (2012).
- ^ Mihály, Héder (2023). „Explainable AI: A Brief History of the Concept” (PDF). ERCIM News (134): 9—10.
- ^ Phillips, P. Jonathon; Hahn, Carina A.; Fontana, Peter C.; Yates, Amy N.; Greene, Kristen; Broniatowski, David A.; Przybocki, Mark A. (29. 09. 2021). „Four Principles of Explainable Artificial Intelligence”. doi:10.6028/nist.ir.8312.
- ^ Vilone, Giulia; Longo, Luca (2021). „Notions of explainability and evaluation approaches for explainable artificial intelligence”. Information Fusion. December 2021 - Volume 76: 89—106. doi:10.1016/j.inffus.2021.05.009.
- ^ Castelvecchi, Davide (06. 10. 2016). „Can we open the black box of AI?”. Nature (на језику: енглески). 538 (7623): 20—23. Bibcode:2016Natur.538...20C. ISSN 0028-0836. PMID 27708329. S2CID 4465871. doi:10.1038/538020a.
- ^ Garcez, Artur d'Avila; Lamb, Luis C.; Gabbay, Dov M. (2009). „Neural-Symbolic Cognitive Reasoning”. Cognitive Technologies (на језику: енглески). ISSN 1611-2482. doi:10.1007/978-3-540-73246-4.
- ^ Rocktäschel, Tim; Riedel, Sebastian (2016). „Learning Knowledge Base Inference with Neural Theorem Provers”. Proceedings of the 5th Workshop on Automated Knowledge Base Construction. San Diego, CA: Association for Computational Linguistics. стр. 45—50. doi:10.18653/v1/W16-1309 . Приступљено 2022-08-06.
- ^ Serafini, Luciano; Garcez, Artur d'Avila (2016). „Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge”. arXiv:1606.04422 [cs.AI].
- ^
Neats vs. scruffies, the historic debate:
- McCorduck (2004, стр. 421–424, 486–489)
- Crevier (1993, стр. 168)
- Nilsson (1983, стр. 10–11)
- Russell & Norvig (2021, стр. 24)
- ^ Gerges, Firas; Zouein, Germain; Azar, Danielle (2018-03-12). „Genetic Algorithms with Local Optima Handling to Solve Sudoku Puzzles”. Proceedings of the 2018 International Conference on Computing and Artificial Intelligence. ICCAI 2018. New York, NY, USA: Association for Computing Machinery. стр. 19—22. ISBN 978-1-4503-6419-5. S2CID 44152535. doi:10.1145/3194452.3194463.
- ^ Burkhart, Michael C.; Ruiz, Gabriel (2023). „Neuroevolutionary representations for learning heterogeneous treatment effects”. Journal of Computational Science. 71: 102054. S2CID 258752823. doi:10.1016/j.jocs.2023.102054 .
- ^ Novák, V.; Perfilieva, I.; Močkoř, J. (1999). Mathematical principles of fuzzy logic. Dordrecht: Kluwer Academic. ISBN 978-0-7923-8595-0.
- ^ „Fuzzy Logic”. Stanford Encyclopedia of Philosophy. Bryant University. 23. 07. 2006. Приступљено 30. 09. 2008.
- ^ Pelletier, Francis Jeffry (2000). „Review of Metamathematics of fuzzy logics” (PDF). The Bulletin of Symbolic Logic. 6 (3): 342—346. JSTOR 421060. doi:10.2307/421060. Архивирано (PDF) из оригинала 03. 03. 2016. г.
- ^ Zadeh, Lotfi A. (март 1994). „Fuzzy logic, neural networks, and soft computing”. Communications of the ACM (на језику: енглески). 37 (3): 77—84. ISSN 0001-0782. doi:10.1145/175247.175255 .
- ^ Ibrahim, Dogan (2016). „An overview of soft computing.”. Procedia Computer Science. 102: 34—38..
- ^ Kecman, Vojislav (2001). Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models (на језику: енглески). MIT Press. ISBN 978-0-262-11255-0.
- ^ Chaturvedi, Devendra K (2008). „Soft computing.”. Studies in Computational intelligence. 103: 509—612..
- ^ Ram, Mangey; Davim, J. Paulo (04. 05. 2018). Advanced Mathematical Techniques in Engineering Sciences (на језику: енглески). CRC Press. ISBN 978-1-351-37189-6.
- ^ Chalmers, David (2010). „The Singularity: A Philosophical Analysis” (PDF). Journal of Consciousness Studies. 17: 7—65.
- ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Department of Informatics, University of Lugano. Приступљено 19. 9. 2014.
- ^ Müller, Vincent C.; Bostrom, Nick (2016). „Future Progress in Artificial Intelligence: A Survey of Expert Opinion”. Ур.: Müller, Vincent C. Fundamental Issues of Artificial Intelligence. Springer. стр. 553—571.
- ^ Santos-Lang, Christopher (2014). „Our responsibility to manage evaluative diversity” (PDF). ACM SIGCAS Computers & Society. 44 (2): 16—19. S2CID 5649158. doi:10.1145/2656870.2656874. Архивирано из оригинала (PDF) 02. 11. 2018. г. Приступљено 12. 03. 2024.
- ^ Dvorsky, George (1. 4. 2013). „How Much Longer Before Our First AI Catastrophe?”. Gizmodo. Приступљено 27. 11. 2021.
- ^ Muehlhauser, Luke (18. 10. 2013). „Ben Goertzel on AGI as a Field”. Machine Intelligence Research Institute. Приступљено 27. 11. 2021.
- ^ Chalfen, Mike (15. 10. 2015). „The Challenges Of Building AI Apps”. TechCrunch. Приступљено 27. 11. 2021.
- ^ The Cambridge handbook of artificial intelligence. Frankish, Keith., Ramsey, William M., 1960-. Cambridge, UK. 12. 6. 2014. стр. 342. ISBN 978-0-521-87142-6. OCLC 865297798.
- ^ Chandler, Daniel; Munday, Rod (2020). A Dictionary of Media and Communication. Oxford University Press. ISBN 978-0-19-884183-8. doi:10.1093/acref/9780198841838.001.0001.
- ^ Pennachin & Goertzel (2007).
- ^ а б Roberts (2016).
- ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric, ур., „The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence”, Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, стр. 199—238, ISBN 978-3-642-32559-5, doi:10.1007/978-3-642-32560-1_11, Приступљено 2022-01-16
- ^ Gouveia, Steven S., ур. (2020). „ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce”. The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4.
- ^ Russell & Norvig (2021), стр. 986.
- ^ Goode, Luke (30. 10. 2018). „Life, but not as we know it: A.I. and the popular imagination”. Culture Unbound. Linkoping University Electronic Press. 10 (2): 185—207. ISSN 2000-1525. S2CID 149523987. doi:10.3384/cu.2000.1525.2018102185 .
- ^ Lucas, Duncan (2002). Body, Mind, Soul—The'Cyborg Effect': Artificial Intelligence in Science Fiction (thesis). McMaster University (PhD thesis). hdl:11375/11154.
- ^ Mubin, Omar; Wadibhasme, Kewal; Jordan, Philipp; Obaid, Mohammad (2019). „Reflecting on the Presence of Science Fiction Robots in Computing Literature”. ACM Transactions on Human-Robot Interaction. 8 (1). Article 5. S2CID 75135568. doi:10.1145/3303706 .
- ^ Solarewicz, Krzysztof (2015). „The Stuff That Dreams Are Made of: AI in Contemporary Science Fiction”. Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics. 9. Springer International Publishing. стр. 111—120. ISBN 978-3-319-09667-4. doi:10.1007/978-3-319-09668-1_8.
- ^ Wiegel, Alexander (2012). „AI in Science-fiction: a comparison of Moon (2009) and 2001: A Space Odyssey (1968)”. Aventinus.
- ^ Chalmers (1995).
- ^ Dennett (1991).
- ^ Horst (2005).
- ^ Searle (1999).
- ^ Searle (1980), стр. 1.
- ^ Russell & Norvig (2021), стр. 9817.
- ^
Searle's Chinese room argument:
- Searle (1980). Searle's original presentation of the thought experiment.
- Searle (1999).
- Russell & Norvig (2021, стр. 985)
- McCorduck (2004, стр. 443–445)
- Crevier (1993, стр. 269–271)
- ^ Leith, Sam (07. 07. 2022). „Nick Bostrom: How can we be certain a machine isn’t conscious?”. The Spectator (на језику: енглески). Приступљено 23. 02. 2024.
- ^ а б в Thomson, Jonny (31. 10. 2022). „Why don't robots have rights?”. Big Think (на језику: енглески). Приступљено 23. 02. 2024.
- ^ а б Kateman, Brian (24. 07. 2023). „AI Should Be Terrified of Humans”. TIME (на језику: енглески). Приступљено 23. 02. 2024.
- ^ Wong, Jeff (10. 7. 2023). „What leaders need to know about robot rights”. Fast Company.
- ^ Hern, Alex (12. 01. 2017). „Give robots 'personhood' status, EU committee argues”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 23. 02. 2024.
- ^ Dovey, Dana (14. 04. 2018). „Experts Don't Think Robots Should Have Rights”. Newsweek (на језику: енглески). Приступљено 23. 02. 2024.
- ^ Cuddy, Alice (13. 04. 2018). „Robot rights violate human rights, experts warn EU”. euronews (на језику: енглески). Приступљено 23. 02. 2024.
- ^
The Intelligence explosion and technological singularity:
- Russell & Norvig (2021, стр. 1004–1005)
- Omohundro (2008)
- Kurzweil (2005)
- ^ Russell & Norvig (2021), стр. 1005.
- ^
Transhumanism:
- Moravec (1988)
- Kurzweil (2005)
- Russell & Norvig (2021, стр. 1005)
- ^ „Darwin Among the Machines [To the Editor of the Press, Christchurch, New Zealand, 13 June, 1863.]”. New Zealand Electronic Text Centre. Архивирано из оригинала 2006-05-24. г.
- ^
AI as evolution:
- Edward Fredkin is quoted in McCorduck (2004, стр. 401)
- Butler (1863)
- Dyson (1998)
- ^ Roberts, Adam (2006). The History of Science Fiction. New York: Palgrave Macmillan. стр. 168. ISBN 978-0-333-97022-5.
- ^ а б Voyen Koreis. „Capek's RUR”. Архивирано из оригинала 23. 12. 2013. г. Приступљено 23. 7. 2013.
- ^ Madigan, Tim (2012). „RUR or RU Ain't A Person?”. Philosophy Now. Архивирано из оригинала 3. 2. 2013. г. Приступљено 24. 7. 2013.
- ^ Rubin, Charles T. (2011). „Machine Morality and Human Responsibility”. The New Atlantis. Архивирано из оригинала 26. 10. 2013. г. Приступљено 24. 7. 2013.
- ^ „Ottoman Turkish Translation of R.U.R. – Library Details” (на језику: турски). Архивирано из оригинала 3. 2. 2014. г. Приступљено 24. 7. 2013.
- ^
AI in myth:
- McCorduck (2004, стр. 4–5)
- ^ McCorduck (2004), стр. 340–400.
- ^ Miller (1990). Tropes, Parables, and Performatives. Duke University Press. стр. 9. ISBN 9780822311119.
- ^ Lundberg, Christian O.; Keith, William M. (10. 11. 2017). The essential guide to rhetoric. Bedford/St. Martin's. ISBN 9781319094195. OCLC 1016051800.
- ^ Cuddon, J. A.; Preston, C. E. (1998). „Trope”. The Penguin Dictionary of Literary Terms and Literary Theory (4th изд.). London: Penguin. стр. 948. ISBN 9780140513639.
- ^ Arthur C. Clarke The Lost Worlds of 2001, Signet, 1972
- ^ Clément, Gilles; Bukley, Angie; Paloski, William, "History of artificial gravity", ch. 3 in, Clément, Gilles; Bukley, Angie (eds), Artificial Gravity, Springer Science & Business Media, 2007 ISBN 038770714X.
- ^ Schwarm, Stephanie, The Making of 2001: a Space Odyssey, Modern Library, 2000 ISBN 0375755284.
- ^ Buttazzo (2001).
- ^ Asimov, Isaac (1950). „Runaround”. I, Robot (на језику: енглески) (The Isaac Asimov Collection изд.). New York City: Doubleday. стр. 40. ISBN 978-0-385-42304-5. „This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law.”
- ^ Isaac Asimov (1964). „Introduction”. The Rest of the Robots. Doubleday. ISBN 978-0-385-09041-4.
- ^ Gunn, James (јул 1980). „On Variations on a Robot”. IASFM: 56—81. Reprinted in. James Gunn. (1982). Isaac Asimov: The Foundations of Science Fiction. Oxford u.a.: Oxford Univ. Pr. ISBN 978-0-19-503060-0.
- ^ Asimov, Isaac (1979). In Memory Yet Green. Doubleday. стр. 237. ISBN 978-0-380-75432-8.
- ^ Anderson (2008).
- ^ McCauley (2007).
- ^ Galvan (1997).
Литература
[уреди | уреди извор]- Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th изд.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Архивирано из оригинала 26. 7. 2020. г. Приступљено 17. 12. 2019.
- Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann. ISBN 978-1-55860-467-4. Архивирано из оригинала 26. 7. 2020. г. Приступљено 18. 11. 2019.
- Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd изд.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. ISBN 978-0-19-510270-3. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (2nd изд.). Cambridge University Press. ISBN 978-1-107-19539-4. Архивирано из оригинала 7. 12. 2017. г. Приступљено 6. 12. 2017.
- Newquist, H. P. (1994). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think. New York: Macmillan/SAMS. ISBN 978-0-672-30412-5.
- AI & ML in Fusion
- „AI & ML in Fusion, video lecture”. Архивирано из оригинала 02. 07. 2023. г.
- „AlphaGo – Google DeepMind”. Архивирано из оригинала 10. 3. 2016. г.
- Alter, Alexandra; Harris, Elizabeth A. (20. 9. 2023), „Franzen, Grisham and Other Prominent Authors Sue OpenAI”, The New York Times
- Altman, Sam; Brockman, Greg; Sutskever, Ilya (22. 5. 2023). „Governance of Superintelligence”. openai.com (на језику: енглески). Архивирано из оригинала 27. 5. 2023. г. Приступљено 27. 5. 2023.
- Anderson, Susan Leigh (2008). „Asimov's "three laws of robotics" and machine metaethics.”. AI & Society. 22 (4): 477—493. S2CID 1809459. doi:10.1007/s00146-007-0094-5.
- Anderson, Michael; Anderson, Susan Leigh (2011). Machine Ethics. Cambridge University Press.
- Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), „The risk of automation for jobs in OECD countries: A comparative analysis”, OECD Social, Employment, and Migration Working Papers 189
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). „Cognitive developmental robotics: a survey”. IEEE Transactions on Autonomous Mental Development. 1 (1): 12—34. S2CID 10168773. doi:10.1109/tamd.2009.2021702.
- „Ask the AI experts: What's driving today's progress in AI?”. McKinsey & Company. Архивирано из оригинала 13. 4. 2018. г. Приступљено 13. 4. 2018.
- Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN 978-1-78643-904-8. OCLC 1039480085.
- Beal, J.; Winston, Patrick (2009), „The New Frontier of Human-Level Artificial Intelligence”, IEEE Intelligent Systems, 24: 21—24, S2CID 32437713, doi:10.1109/MIS.2009.75, hdl:1721.1/52357
- Berdahl, Carl Thomas; Baker, Lawrence; Mann, Sean; Osoba, Osonde; Girosi, Federico (7. 2. 2023). „Strategies to Improve the Impact of Artificial Intelligence on Health Equity: Scoping Review”. JMIR AI (на језику: енглески). 2: e42936. ISSN 2817-1705. S2CID 256681439. doi:10.2196/42936 . Архивирано из оригинала 21. 2. 2023. г. Приступљено 21. 2. 2023.
- Berlinski, David (2000). The Advent of the Algorithm. Harcourt Books. ISBN 978-0-15-601391-8. OCLC 46890682. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Архивирано (PDF) из оригинала 20. 12. 2019. г. Приступљено 9. 8. 2020.
- Bertini, M; Del Bimbo, A; Torniai, C (2006). „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. стр. 679—682.
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Bostrom, Nick (2015). „What happens when our computers get smarter than we are?”. TED (conference). Архивирано из оригинала 25. 7. 2020. г. Приступљено 30. 1. 2020.
- Brooks, Rodney (10. 11. 2014). „artificial intelligence is a tool, not a threat”. Архивирано из оригинала 12. 11. 2014. г.
- Brooks, Rodney (1990). „Elephants Don't Play Chess” (PDF). Robotics and Autonomous Systems. 6 (1–2): 3—15. CiteSeerX 10.1.1.588.7539 . doi:10.1016/S0921-8890(05)80025-9. Архивирано (PDF) из оригинала 9. 8. 2007. г.
- Buiten, Miriam C (2019). „Towards Intelligent Regulation of Artificial Intelligence”. European Journal of Risk Regulation. 10 (1): 41—59. ISSN 1867-299X. doi:10.1017/err.2019.8 .
- Bushwick, Sophie (16. 3. 2023), „What the New GPT-4 AI Can Do”, Scientific American
- Butler, Samuel (13. 6. 1863). „Darwin among the Machines”. Letters to the Editor. The Press. Christchurch, New Zealand. Архивирано из оригинала 19. 9. 2008. г. Приступљено 16. 10. 2014 — преко Victoria University of Wellington.
- Buttazzo, G. (јул 2001). „Artificial consciousness: Utopia or real possibility?”. Computer. 34 (7): 24—30. doi:10.1109/2.933500.
- Cambria, Erik; White, Bebo (2014). „Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine. 9 (2): 48—57. S2CID 206451986. doi:10.1109/MCI.2014.2307227.
- Cellan-Jones, Rory (2. 12. 2014). „Stephen Hawking warns artificial intelligence could end mankind”. BBC News. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Chalmers, David (1995). „Facing up to the problem of consciousness”. Journal of Consciousness Studies. 2 (3): 200—219. Архивирано из оригинала 8. 3. 2005. г. Приступљено 11. 10. 2018.
- Christian, Brian (2020). The Alignment Problem: Machine learning and human values. W. W. Norton & Company. ISBN 978-0-393-86833-3. OCLC 1233266753.
- Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). „Multi-column deep neural networks for image classification”. 2012 IEEE Conference on Computer Vision and Pattern Recognition. стр. 3642—3649. ISBN 978-1-4673-1228-8. S2CID 2161592. arXiv:1202.2745 . doi:10.1109/cvpr.2012.6248110.
- Clark, Jack (2015b). „Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg.com. Архивирано из оригинала 23. 11. 2016. г. Приступљено 23. 11. 2016.
- CNA (12. 1. 2019). „Commentary: Bad news. Artificial intelligence is biased”. CNA (на језику: енглески). Архивирано из оригинала 12. 1. 2019. г. Приступљено 19. 6. 2020.
- Cybenko, G. (1988). Continuous valued neural networks with two hidden layers are sufficient (Извештај). Department of Computer Science, Tufts University.
- Deng, L.; Yu, D. (2014). „Deep Learning: Methods and Applications” (PDF). Foundations and Trends in Signal Processing. 7 (3–4): 1—199. doi:10.1561/2000000039. Архивирано (PDF) из оригинала 14. 3. 2016. г. Приступљено 18. 10. 2014.
- Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9.
- DiFeliciantonio, Chase (3. 4. 2023). „AI has already changed the world. This report shows how”. San Francisco Chronicle. Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Dickson, Ben (2. 5. 2022). „Machine learning: What is the transformer architecture?”. TechTalks. Приступљено 22. 11. 2023.
- Dockrill, Peter (27. 6. 2022), „Robots With Flawed AI Make Sexist And Racist Decisions, Experiment Shows”, Science Alert, Архивирано из оригинала 27. 6. 2022. г.
- Domingos, Pedro (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0465065707.
- Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford: Blackwell. ISBN 978-0-02-908060-3. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Архивирано из оригинала 26. 7. 2020. г. Приступљено 18. 11. 2019.
- Edwards, Benj (17. 5. 2023). „Poll: AI poses risk to humanity, according to majority of Americans”. Ars Technica (на језику: енглески). Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Evans, Woody (2015). „Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072 .
- Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4.
- Ford, Martin; Colvin, Geoff (6. 9. 2015). „Will robots create more jobs than they destroy?”. The Guardian. Архивирано из оригинала 16. 6. 2018. г. Приступљено 13. 1. 2018.
- Fox News (2023). „Fox News Poll” (PDF). Fox News. Архивирано (PDF) из оригинала 12. 5. 2023. г. Приступљено 19. 6. 2023.
- Frank, Michael (22. 9. 2023). „US Leadership in Artificial Intelligence Can Shape the 21st Century Global Order”. The Diplomat (на језику: енглески). Приступљено 08. 12. 2023. „Instead, the United States has developed a new area of dominance that the rest of the world views with a mixture of awe, envy, and resentment: artificial intelligence... From AI models and research to cloud computing and venture capital, U.S. companies, universities, and research labs – and their affiliates in allied countries – appear to have an enormous lead in both developing cutting-edge AI and commercializing it. The value of U.S. venture capital investments in AI start-ups exceeds that of the rest of the world combined.”
- Frey, Carl Benedikt; Osborne, Michael A (1. 1. 2017). „The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254—280. CiteSeerX 10.1.1.395.416 . ISSN 0040-1625. doi:10.1016/j.techfore.2016.08.019.
- „From not working to neural networking”. The Economist. 2016. Архивирано из оригинала 31. 12. 2016. г. Приступљено 26. 4. 2018.
- Galvan, Jill (1. 1. 1997). „Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies. 24 (3): 413—429. JSTOR 4240644.
- Geist, Edward Moore (9. 8. 2015). „Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Gertner, Jon (18. 7. 2023). „Wikipedia's Moment of Truth – Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process? + comment”. The New York Times. Архивирано из оригинала 18. 7. 2023. г. Приступљено 19. 7. 2023.
- Gibbs, Samuel (27. 10. 2014). „Elon Musk: artificial intelligence is our biggest existential threat”. The Guardian. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Goffrey, Andrew (2008). „Algorithm”. Ур.: Fuller, Matthew. Software studies: a lexicon. Cambridge, Mass.: MIT Press. стр. 15–20. ISBN 978-1-4356-4787-9.
- Goldman, Sharon (14. 9. 2022). „10 years later, deep learning 'revolution' rages on, say AI pioneers Hinton, LeCun and Li”. VentureBeat. Приступљено 8. 12. 2023.
- Good, I. J. (1965), Speculations Concerning the First Ultraintelligent Machine
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., Архивирано из оригинала 16. 4. 2016. г., Приступљено 12. 11. 2017
- Goodman, Bryce; Flaxman, Seth (2017). „EU regulations on algorithmic decision-making and a 'right to explanation'”. AI Magazine. 38 (3): 50. S2CID 7373959. arXiv:1606.08813 . doi:10.1609/aimag.v38i3.2741.
- Government Accountability Office (13. 9. 2022). Consumer Data: Increasing Use Poses Risks to Privacy. gao.gov (Извештај).
- Grant, Nico; Hill, Kashmir (22. 5. 2023). „Google's Photo App Still Can't Find Gorillas. And Neither Can Apple's.”. The New York Times.
- Goswami, Rohan (5. 4. 2023). „Here's where the A.I. jobs are”. CNBC (на језику: енглески). Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Harari, Yuval Noah (октобар 2018). „Why Technology Favors Tyranny”. The Atlantic. Архивирано из оригинала 25. 9. 2021. г. Приступљено 23. 9. 2021.
- Harari, Yuval Noah (2023). „AI and the future of humanity”. YouTube.
- Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
- Henderson, Mark (24. 4. 2007). „Human rights for robots? We're getting carried away”. The Times Online. London. Архивирано из оригинала 31. 5. 2014. г. Приступљено 31. 5. 2014.
- Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). „Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine. 29 (6): 82—97. Bibcode:2012ISPM...29...82H. S2CID 206485943. doi:10.1109/msp.2012.2205597.
- Holley, Peter (28. 1. 2015). „Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'”. The Washington Post. ISSN 0190-8286. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Hornik, Kurt; Stinchcombe, Maxwell; White, Halbert (1989). Multilayer Feedforward Networks are Universal Approximators (PDF). Neural Networks. 2. Pergamon Press. стр. 359—366.
- Horst, Steven (2005). „The Computational Theory of Mind”. The Stanford Encyclopedia of Philosophy. Архивирано из оригинала 6. 3. 2016. г. Приступљено 7. 3. 2016.
- Howe, J. (1994). „Artificial Intelligence at Edinburgh University: a Perspective”. Архивирано из оригинала 15. 5. 2007. г. Приступљено 30. 8. 2007.
- IGM Chicago (30. 6. 2017). „Robots and Artificial Intelligence”. www.igmchicago.org. Архивирано из оригинала 1. 5. 2019. г. Приступљено 3. 7. 2019.
- Iphofen, Ron; Kritikos, Mihalis (3. 1. 2019). „Regulating artificial intelligence and robotics: ethics by design in a digital society”. Contemporary Social Science. 16 (2): 170—184. ISSN 2158-2041. S2CID 59298502. doi:10.1080/21582041.2018.1563803.
- Jordan, M. I.; Mitchell, T. M. (16. 7. 2015). „Machine learning: Trends, perspectives, and prospects”. Science. 349 (6245): 255—260. Bibcode:2015Sci...349..255J. PMID 26185243. S2CID 677218. doi:10.1126/science.aaa8415.
- Kahneman, Daniel (2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. Архивирано из оригинала 15. 3. 2023. г. Приступљено 8. 4. 2012.
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). „Judgment under uncertainty: Heuristics and biases”. Science. New York: Cambridge University Press. 185 (4157): 1124—1131. Bibcode:1974Sci...185.1124T. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957. doi:10.1126/science.185.4157.1124.
- Kasperowicz, Peter (1. 5. 2023). „Regulate AI? GOP much more skeptical than Dems that government can do it right: poll”. Fox News. Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Katz, Yarden (1. 11. 2012). „Noam Chomsky on Where Artificial Intelligence Went Wrong”. The Atlantic. Архивирано из оригинала 28. 2. 2019. г. Приступљено 26. 10. 2014.
- „Kismet”. MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Архивирано из оригинала 17. 10. 2014. г. Приступљено 25. 10. 2014.
- Kissinger, Henry (1. 11. 2021). „The Challenge of Being Human in the Age of AI”. The Wall Street Journal. Архивирано из оригинала 4. 11. 2021. г. Приступљено 4. 11. 2021.
- Kobielus, James (27. 11. 2019). „GPUs Continue to Dominate the AI Accelerator Market for Now”. InformationWeek (на језику: енглески). Архивирано из оригинала 19. 10. 2021. г. Приступљено 11. 6. 2020.
- Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1. 7. 2006). „Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association. 13 (4): 369—371. PMC 1513681 . PMID 16622160. doi:10.1197/jamia.M2055.
- Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
- Langley, Pat (2011). „The changing science of machine learning”. Machine Learning. 82 (3): 275—279. doi:10.1007/s10994-011-5242-y .
- Larson, Jeff; Angwin, Julia (23. 5. 2016). „How We Analyzed the COMPAS Recidivism Algorithm”. ProPublica (на језику: енглески). Архивирано из оригинала 29. 4. 2019. г. Приступљено 19. 6. 2020.
- Laskowski, Nicole (новембар 2023). „What is Artificial Intelligence and How Does AI Work? TechTarget”. Enterprise AI (на језику: енглески). Приступљено 30. 10. 2023.
- Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019). Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
- Lee, Timothy B. (22. 8. 2014). „Will artificial intelligence destroy humanity? Here are 5 reasons not to worry.”. Vox. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). „Artificial Intelligence: A General Survey”. Artificial Intelligence: a paper symposium. Science Research Council.
- Lipartito, Kenneth (6. 1. 2011), The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today (PDF) (Unpublished manuscript), S2CID 166742927, doi:10.2139/ssrn.1736283, Архивирано (PDF) из оригинала 9. 10. 2022. г.
- Lohr, Steve (2017). „Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. Архивирано из оригинала 14. 1. 2018. г. Приступљено 13. 1. 2018.
- Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). „Developmental robotics: a survey”. Connection Science. 15 (4): 151—190. CiteSeerX 10.1.1.83.7615 . S2CID 1452734. doi:10.1080/09540090310001655110.
- „Machine Ethics”. aaai.org. Архивирано из оригинала 29. 11. 2014. г.
- Madrigal, Alexis C. (27. 2. 2015). „The case against killer robots, from a guy actually working on artificial intelligence”. Fusion.net. Архивирано из оригинала 4. 2. 2016. г. Приступљено 31. 1. 2016.
- Mahdawi, Arwa (26. 6. 2017). „What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. Архивирано из оригинала 14. 1. 2018. г. Приступљено 13. 1. 2018.
- Maker, Meg Houston (2006). „AI@50: AI Past, Present, Future”. Dartmouth College. Архивирано из оригинала 3. 1. 2007. г. Приступљено 16. 10. 2008.
- Marmouyet, Françoise (15. 12. 2023). „Google's Gemini: is the new AI model really better than ChatGPT?”. The Conversation (на језику: енглески). Приступљено 25. 12. 2023.
- Minsky, Marvin (1986), The Society of Mind, Simon and Schuster
- Maschafilm (2010). „Content: Plug & Pray Film – Artificial Intelligence – Robots”. plugandpray-film.de. Архивирано из оригинала 12. 2. 2016. г.
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). „A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”. Архивирано из оригинала 26. 8. 2007. г. Приступљено 30. 8. 2007.
- McCarthy, John (2007), „From Here to Human-Level AI”, Artificial Intelligence: 171
- McCarthy, John (1999), What is AI?, Архивирано из оригинала 4. 12. 2022. г., Приступљено 4. 12. 2022
- McCauley, Lee (2007). „AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153—164. CiteSeerX 10.1.1.85.8904 . S2CID 37272949. doi:10.1007/s10676-007-9138-2.
- McGarry, Ken (1. 12. 2005). „A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39—61. S2CID 14987656. doi:10.1017/S0269888905000408.
- McGaughey, E (2022), Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy, стр. 51(3) Industrial Law Journal 511–559, S2CID 219336439, SSRN 3044448 , doi:10.2139/ssrn.3044448, Архивирано из оригинала 31. 1. 2021. г., Приступљено 27. 5. 2023
- Merkle, Daniel; Middendorf, Martin (2013). „Swarm Intelligence”. Ур.: Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (на језику: енглески). Springer Science & Business Media. ISBN 978-1-4614-6940-7.
- Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. Архивирано из оригинала 26. 7. 2020. г. Приступљено 18. 11. 2019.
- Morgenstern, Michael (9. 5. 2015). „Automation and anxiety”. The Economist. Архивирано из оригинала 12. 1. 2018. г. Приступљено 13. 1. 2018.
- Müller, Vincent C.; Bostrom, Nick (2014). „Future Progress in Artificial Intelligence: A Poll Among Experts” (PDF). AI Matters. 1 (1): 9—11. S2CID 8510016. doi:10.1145/2639475.2639478. Архивирано (PDF) из оригинала 15. 1. 2016. г.
- Neumann, Bernd; Möller, Ralf (2008). „On scene interpretation with description logics”. Image and Vision Computing. 26 (1): 82—101. S2CID 10767011. doi:10.1016/j.imavis.2007.08.013.
- Nilsson, Nils (1995), „Eyes on the Prize”, AI Magazine, св. 16, стр. 9—17
- Newell, Allen; Simon, H. A. (1976). „Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM. 19 (3): 113—126. doi:10.1145/360018.360022 .
- Nicas, Jack (7. 2. 2018). „How YouTube Drives People to the Internet's Darkest Corners”. The Wall Street Journal (на језику: енглески). ISSN 0099-9660. Приступљено 16. 6. 2018.
- Nilsson, Nils (1983). „Artificial Intelligence Prepares for 2001” (PDF). AI Magazine. 1 (1). Архивирано (PDF) из оригинала 17. 8. 2020. г. Приступљено 22. 8. 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence.
- NRC (United States National Research Council) (1999). „Developments in Artificial Intelligence”. Funding a Revolution: Government Support for Computing Research. National Academy Press.
- Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
- Oudeyer, P-Y. (2010). „On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development” (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2—16. S2CID 6362217. doi:10.1109/tamd.2009.2039057. Архивирано (PDF) из оригинала 3. 10. 2018. г. Приступљено 4. 6. 2013.
- Pennachin, C.; Goertzel, B. (2007). „Contemporary Approaches to Artificial General Intelligence”. Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. стр. 1–30. ISBN 978-3-540-23733-4. doi:10.1007/978-3-540-68677-4_1.
- Pinker, Steven (2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-06-133646-1
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (2017). „A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98—125. S2CID 205433041. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490 . Архивирано из оригинала 23. 3. 2023. г. Приступљено 27. 4. 2021.
- Rawlinson, Kevin (29. 1. 2015). „Microsoft's Bill Gates insists AI is a threat”. BBC News. Архивирано из оригинала 29. 1. 2015. г. Приступљено 30. 1. 2015.
- Reisner, Alex (19. 8. 2023), „Revealed: The Authors Whose Pirated Books are Powering Generative AI”, The Atlantic
- Roberts, Jacob (2016). „Thinking Machines: The Search for Artificial Intelligence”. Distillations. св. 2 бр. 2. стр. 14—23. Архивирано из оригинала 19. 8. 2018. г. Приступљено 20. 3. 2018.
- Robitzski, Dan (5. 9. 2018). „Five experts share what scares them the most about AI”. Архивирано из оригинала 8. 12. 2019. г. Приступљено 8. 12. 2019.
- „Robots could demand legal rights”. BBC News. 21. 12. 2006. Архивирано из оригинала 15. 10. 2019. г. Приступљено 3. 2. 2011.
- Rose, Steve (11. 7. 2023). „AI Utopia or dystopia?”. The Guardian Weekly. стр. 42—43.
- Russell, Stuart (2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
- Sainato, Michael (19. 8. 2015). „Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. Архивирано из оригинала 30. 10. 2015. г. Приступљено 30. 10. 2015.
- Sample, Ian (05. 11. 2017). „Computer says no: why making AIs fair, accountable and transparent is crucial”. The Guardian (на језику: енглески). Приступљено 30. 1. 2018.
- Rothman, Denis (7. 10. 2020). „Exploring LIME Explanations and the Mathematics Behind It”. Codemotion. Приступљено 25. 11. 2023.
- Scassellati, Brian (2002). „Theory of mind for a humanoid robot”. Autonomous Robots. 12 (1): 13—24. S2CID 1979315. doi:10.1023/A:1013298507114.
- Schmidhuber, J. (2015). „Deep Learning in Neural Networks: An Overview”. Neural Networks. 61: 85—117. PMID 25462637. S2CID 11715509. arXiv:1404.7828 . doi:10.1016/j.neunet.2014.09.003.
- Schmidhuber, Jürgen (2022). „Annotated History of Modern AI and Deep Learning”.
- Schulz, Hannes; Behnke, Sven (1. 11. 2012). „Deep Learning”. KI – Künstliche Intelligenz (на језику: енглески). 26 (4): 357—363. ISSN 1610-1987. S2CID 220523562. doi:10.1007/s13218-012-0198-z.
- Searle, John (1980). „Minds, Brains and Programs” (PDF). Behavioral and Brain Sciences. 3 (3): 417—457. S2CID 55303721. doi:10.1017/S0140525X00005756. Архивирано (PDF) из оригинала 17. 3. 2019. г. Приступљено 22. 8. 2020.
- Searle, John (1999). Mind, language and society. New York: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Simonite, Tom (31. 3. 2016). „How Google Plans to Solve Artificial Intelligence”. MIT Technology Review.
- Smith, Craig S. (15. 3. 2023). „ChatGPT-4 Creator Ilya Sutskever on AI Hallucinations and AI Democracy”. Forbes (на језику: енглески). Приступљено 25. 12. 2023.
- Smoliar, Stephen W.; Zhang, HongJiang (1994). „Content based video indexing and retrieval”. IEEE MultiMedia. 1 (2): 62—72. S2CID 32710913. doi:10.1109/93.311653.
- Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Архивирано (PDF) из оригинала 26. 4. 2011. г. Приступљено 22. 3. 2011 — преко std.com, pdf scanned copy of the original. Later published as
Solomonoff, Ray (1957). „An Inductive Inference Machine”. IRE Convention Record. Section on Information Theory, part 2. стр. 56—62. - Stanford University (2023). „Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance” (PDF). AI Index. Архивирано (PDF) из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Lecture Notes in Computer Science. 3784. Springer. стр. 981—995. ISBN 978-3-540-29621-8. doi:10.1007/11573548.
- Taylor, Josh; Hern, Alex (2. 5. 2023). „'Godfather of AI' Geoffrey Hinton quits Google and warns over dangers of misinformation”. The Guardian.
- Thompson, Derek (23. 1. 2014). „What Jobs Will the Robots Take?”. The Atlantic. Архивирано из оригинала 24. 4. 2018. г. Приступљено 24. 4. 2018.
- Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Архивирано из оригинала 26. 7. 2020. г. Приступљено 22. 8. 2020.
- Toews, Rob (3. 9. 2023). „Transformers Revolutionized AI. What Will Replace Them?”. Forbes. Приступљено 8. 12. 2023.
- Turing, Alan (октобар 1950), „Computing Machinery and Intelligence”, Mind, LIX (236): 433—460, ISSN 0026-4423, doi:10.1093/mind/LIX.236.433
- UNESCO Science Report: the Race Against Time for Smarter Development. (PDF). Paris: UNESCO. 2021. ISBN 978-92-3-100450-6. Архивирано (PDF) из оригинала 18. 6. 2022. г. Приступљено 18. 9. 2021.
- Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7. 3. 2022). „Dual use of artificial-intelligence-powered drug discovery”. Nature Machine Intelligence. 4 (3): 189—191. PMC 9544280 . PMID 36211133. S2CID 247302391. doi:10.1038/s42256-022-00465-9.
- Valance, Christ (30. 5. 2023). „Artificial intelligence could lead to extinction, experts warn”. BBC News. Архивирано из оригинала 17. 6. 2023. г. Приступљено 18. 6. 2023.
- Valinsky, Jordan (11. 4. 2019), „Amazon reportedly employs thousands of people to listen to your Alexa conversations”, CNN.com
- Verma, Yugesh (25. 12. 2021). „A Complete Guide to SHAP – SHAPley Additive exPlanations for Practitioners”. Analytics India Magazine (на језику: енглески). Приступљено 25. 11. 2023.
- Vincent, James (7. 11. 2019). „OpenAI has published the text-generating AI it said was too dangerous to share”. The Verge (на језику: енглески). Архивирано из оригинала 11. 6. 2020. г. Приступљено 11. 6. 2020.
- Vincent, James (15. 11. 2022). „The scary truth about AI copyright is nobody knows what will happen next”. The Verge. Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Vincent, James (3. 4. 2023). „AI is entering an era of corporate control”. The Verge. Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023.
- Vinge, Vernor (1993). „The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V. Архивирано из оригинала 1. 1. 2007. г. Приступљено 14. 11. 2011.
- Waddell, Kaveh (2018). „Chatbots Have Entered the Uncanny Valley”. The Atlantic. Архивирано из оригинала 24. 4. 2018. г. Приступљено 24. 4. 2018.
- Wallach, Wendell (2010). Moral Machines. Oxford University Press.
- Wason, P. C.; Shapiro, D. (1966). „Reasoning”. Ур.: Foss, B. M. New horizons in psychology. Harmondsworth: Penguin. Архивирано из оригинала 26. 7. 2020. г. Приступљено 18. 11. 2019.
- Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). „Autonomous mental development by robots and animals” (PDF). Science. 291 (5504): 599—600. PMID 11229402. S2CID 54131797. doi:10.1126/science.291.5504.599. Архивирано (PDF) из оригинала 4. 9. 2013. г. Приступљено 4. 6. 2013 — преко msu.edu.
- „What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?”. Scientific American (на језику: енглески). 21. 10. 1999. Архивирано из оригинала 6. 5. 2018. г. Приступљено 5. 5. 2018.
- Williams, Rhiannon (28. 6. 2023), „Humans may be more likely to believe disinformation generated by AI”, MIT Technology Review
- Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24. 7. 2018). „Artificial Intelligence and the Public Sector – Applications and Challenges”. International Journal of Public Administration. 42 (7): 596—615. ISSN 0190-0692. S2CID 158829602. doi:10.1080/01900692.2018.1498103. Архивирано из оригинала 18. 8. 2020. г. Приступљено 22. 8. 2020.
- Wong, Matteo (19. 5. 2023), „ChatGPT Is Already Obsolete”, The Atlantic
- Yudkowsky, E (2008), „Artificial Intelligence as a Positive and Negative Factor in Global Risk” (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y, Архивирано (PDF) из оригинала 19. 10. 2013. г., Приступљено 24. 9. 2021
- Ashish Vaswani, Noam Shazeer, Niki Parmar et al. "Attention is all you need." Advances in neural information processing systems 30 (2017). Seminal paper on transformers.
- Autor, David H., "Why Are There Still So Many Jobs? The History and Future of Workplace Automation" (2015) 29(3) Journal of Economic Perspectives 3.
- Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
- Cukier, Kenneth (2019). „Ready for Robots? How to Think about the Future of AI”. Foreign Affairs. 98 (4): 192—98.. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
- Domingos, Pedro. „Our Digital Doubles: AI will serve our species, not control it”. Scientific American. 319 (3): 88—93. септембар 2018. . "AIs are like autistic savants and will remain so for the foreseeable future.... AIs lack common sense and can easily make errors that a human never would... They are also liable to take our instructions too literally, giving us precisely what we asked for instead of what we actually wanted." (p. 93.)
- Gertner, Jon. (2023) "Wikipedia's Moment of Truth: Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process?" New York Times Magazine (July 18, 2023) online
- Gleick, James (review of Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will, Princeton University Press, 2023, 333 pp.). „The Fate of Free Will”. The New York Review of Books. LXXI (1): 27—28. 18. 1. 2024. , 30. "Agency is what distinguishes us from machines. For biological creatures, reason and purpose come from acting in the world and experiencing the consequences. Artificial intelligences – disembodied, strangers to blood, sweat, and tears – have no occasion for that." (p. 30.)
- Hanna, Alex, and Emily M. Bender. „Theoretical AI Harms Are a Distraction: Fearmongering about artificial intelligence's potential to end humanity shrouds the real harm it already causes”. Scientific American. 330 (2): 69—70. 2024.. "[H]ype [about "existential risks"] surrounds many AI firms, but their technology already enables myriad harms, including... discrimination in housing, criminal justice, and health care, as well as the spread of hate speech and misinformation... Large language models extrude... fluent... coherent-seeming text but have no understanding of what the text means, let alone the ability to reason.... (p. 69.) [T]hat output... becomes a noxious... insidious pollutant of our information ecosystem.... [T]oo many... publications [about] AI come from corporate labs or... academic groups that receive... industry funding. Many of these publications are based on junk science [that] is nonreproducible... is full of hype, and uses evaluation methods that do not measure what they purport to... Meanwhile 'AI doomers' cite this junk science... to [misdirect] attention [to] the fantasy of all-powerful machines possibly going rogue and destroying humanity." (p. 70.)
- Hughes-Castleberry, Kenna. „A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone, which has stumped humans for decades, reveals the limitations of natural-language-processing algorithms”. Scientific American. 329 (4): 81—82. новембар 2023. . "This murder mystery competition has revealed that although NLP (natural-language processing) models are capable of incredible feats, their abilities are very much limited by the amount of context they receive. This [...] could cause [difficulties] for researchers who hope to use them to do things such as analyze ancient languages. In some cases, there are few historical records on long-gone civilizations to serve as training data for such a purpose." (p. 82.)
- Immerwahr, Daniel, "Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker, 20 November 2023, pp. 54–59. "If by 'deepfakes' we mean realistic videos produced using artificial intelligence that actually deceive people, then they barely exist. The fakes aren't deep, and the deeps aren't fake. [...] A.I.-generated videos are not, in general, operating in our media as counterfeited evidence. Their role better resembles that of cartoons, especially smutty ones." (p. 59.)
- Johnston, John (2008). The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI., MIT Press.
- Jumper, John; Evans, Richard; Pritzel, Alexander; et al. (26. 8. 2021). „Highly accurate protein structure prediction with AlphaFold”. Nature. 596 (7873): 583—589. Bibcode:2021Natur.596..583J. PMC 8371605 . PMID 34265844. S2CID 235959867. doi:10.1038/s41586-021-03819-2.
- LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (28. 5. 2015). „Deep learning”. Nature. 521 (7553): 436—444. Bibcode:2015Natur.521..436L. PMID 26017442. S2CID 3074096. doi:10.1038/nature14539. Архивирано из оригинала 5. 6. 2023. г. Приступљено 19. 6. 2023.
- Marcus, Gary. „Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind”. Scientific American. 316 (3): 61—63. март 2017. . Marcus points out a so far insuperable stumbling block to artificial intelligence: an incapacity for reliable disambiguation. "[V]irtually every sentence [that people generate] is ambiguous, often in multiple ways. Our brain is so good at comprehending language that we do not usually notice." A prominent example is the "pronoun disambiguation problem" ("PDP"): a machine has no way of determining to whom or what a pronoun in a sentence—such as "he", "she" or "it"—refers.
- Marcus, Gary. „Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems”. Scientific American. 327 (4): 42—45. октобар 2022.
- Mitchell, Melanie (2019). Artificial intelligence: a guide for thinking humans. New York: Farrar, Straus and Giroux. ISBN 9780374257835.
- Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; et al. (26. 2. 2015). „Human-level control through deep reinforcement learning”. Nature. 518 (7540): 529—533. Bibcode:2015Natur.518..529M. PMID 25719670. S2CID 205242740. doi:10.1038/nature14236. Архивирано из оригинала 19. 6. 2023. г. Приступљено 19. 6. 2023. Introduced DQN, which produced human-level performance on some Atari games.
- Press, Eyal, "In Front of Their Faces: Does facial-recognition technology lead police to ignore contradictory evidence?", The New Yorker, 20 November 2023, pp. 20–26.
- Roivainen, Eka. „AI's IQ: ChatGPT aced a standard intelligence test but showed that intelligence cannot be measured by IQ alone”. Scientific American. 329 (1): 7. 2023. "Despite its high IQ, ChatGPT fails at tasks that require real humanlike reasoning or an understanding of the physical and social world.... ChatGPT seemed unable to reason logically and tried to rely on its vast database of... facts derived from online texts."
- Serenko, Alexander; Michael Dohan (2011). „Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence” (PDF). Journal of Informetrics. 5 (4): 629—49. doi:10.1016/j.joi.2011.06.002. Архивирано (PDF) из оригинала 4. 10. 2013. г. Приступљено 12. 9. 2013.
- Silver, David; Huang, Aja; Maddison, Chris J.; et al. (28. 1. 2016). „Mastering the game of Go with deep neural networks and tree search”. Nature. 529 (7587): 484—489. Bibcode:2016Natur.529..484S. PMID 26819042. S2CID 515925. doi:10.1038/nature16961. Архивирано из оригинала 18. 6. 2023. г. Приступљено 19. 6. 2023.
- White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. Архивирано (PDF) из оригинала 20. 2. 2020. г. Приступљено 20. 2. 2020.
Спољашње везе
[уреди | уреди извор]- (језик: српски) Велибор Илић, Вештачка интелигенција
- (језик: енглески) „International Journal of Artificial Intelligence in Education (IJAIED)”. Архивирано из оригинала 26. 12. 2008. г. - слободан приступ чланцима до броја 16. (2006)
- „Artificial Intelligence”. Internet Encyclopedia of Philosophy.
- Thomason, Richmond. „Logic and Artificial Intelligence”. Ур.: Zalta, Edward N. Stanford Encyclopedia of Philosophy.
- Artificial Intelligence. BBC Radio 4 discussion with John Agar, Alison Adam & Igor Aleksander (In Our Time, 8 December 2005).
- Theranostics and AI—The Next Advance in Cancer Precision Medicine.