Пређи на садржај

Вештачка интелигенција

С Википедије, слободне енциклопедије
(преусмерено са Veštačke inteligencije)
Хондин интелигентни хуманоидни робот ASIMO

Вештачка интелигенција (такође ВИ) је подобласт рачунарства која развија и проучава интелигентне машине.[1][2] Вештачка интелигенција је интелигенција машина или софтвера, за разлику од интелигенције живих бића, првенствено људи. Циљ истраживања вештачке интелигенције је развијање програма (софтвера), који ће рачунарима омогућити да се понашају на начин који би се могао окарактерисати интелигентним. Прва истраживања се вежу за саме корене рачунарства. Идеја о стварању машина које ће бити способне да обављају различите задатке интелигентно, била је централна преокупација научника области рачунарства који су се определили за истраживање вештачке интелигенције, током целе друге половине 20. века. Савремена истраживања у вештачкој интелигенцији су оријентисана на експертске и преводилачке системе у ограниченим доменима, препознавање природног говора и писаног текста, аутоматске доказиваче теорема, као и константно интересовање за стварање генерално интелигентних аутономних агената. Вештачка интелигенција као појам у ширем смислу, означава капацитет једне вештачке творевине за реализовање функција које су карактеристика људског размишљања. Могућност развоја сличне творевине је будила интересовање људи још од античког доба; ипак, тек у другој половини 20. века таква могућност је добила прва оруђа (рачунаре), чиме се отворио пут за тај подухват.[3] Потпомогнута напретком модерне науке, истраживања на пољу вештачке интелигенције се развијају у два основна смера: психолошка и физиолошка истраживања природе људског ума, и технолошки развој све сложенијих рачунарских система. У том смислу, појам вештачке интелигенције се првобитно приписао системима и рачунарским програмима са способностима реализовања сложених задатака, односно симулацијама функционисања људског размишљања, иако и дан данас, прилично далеко од циља. У тој сфери, најважније области истраживања су обрада података, препознавање модела различитих области знања, игре и примијењене области, као на пример медицина. Технологија вештачке интелигенције се широко користи у индустрији, влади и науци. Неке апликације високог профила су: напредни веб претраживачи (нпр. Гугл претрага), системи препорука (које користе Јутјуб, Амазон и Нетфликс), интеракција путем људског говора (нпр. Гугл асистант, Сири и Алекса), самостална вожња аутомобила (нпр. Вејмо), генеративни и креативни алати (нпр. ChatGPT[4][5] и уметност вештачке интелигенције[6]), и надљудска игру и анализа у стратешким играма (нпр. шах и го).[7]

Неке области данашњих истраживања обрађивања података се концентришу на програме који настоје оспособити рачунар за разумевање писане и вербалне информације, стварање резимеа, давање одговара на одређена питања или редистрибуцију података корисницима заинтересованим за одређене делове тих информација. У тим програмима је од суштинског значаја капацитет система за конструисање граматички коректних реченица и успостављање везе између речи и идеја, односно идентификовање значења. Истраживања су показала да, док је проблеме структурне логике језика, односно његове синтаксе, могуће решити програмирањем одговарајућих алгоритама, проблем значења, или семантика, је много дубљи и иде у правцу аутентичне вештачке интелигенције. Основне тенденције данас, за развој система вештачке интелигенције представљају: развој експертских система и развој неуронских мрежа. Експертски системи покушавају репродуковати људско размишљање преко симбола. Неуронске мреже то раде више из биолошке перспективе (рекреирају структуру људског мозга уз помоћ генетских алгоритама). Упркос сложености оба система, резултати су веома далеко од стварног интелигентног размишљања. Многи научници су скептици према могућности развијања истинске вештачке интелигенције. Функционисање људског размишљања, још увек није дубље познато, из ког разлога ће информатички дизајн интелигентних система, још дужи временски период бити у суштини онеспособљен за представљање тих непознатих и сложених процеса. Истраживања вештачке интелигенције су фокусирана на следеће компоненте интелигенције: учење, размишљање, решавање проблема, перцепција и разумијевање природног језика.

Алан Тјуринг је био прва особа која је спровела значајна истраживања у области коју је назвао машинска интелигенција.[8] Вештачка интелигенција је основана као академска дисциплина 1956. године.[9] Поље је прошло кроз више циклуса оптимизма,[10][11] праћених периодима разочарења и губитка финансирања, познатим као зима вештачке интелигенције.[12][13] Финансирање и интересовање су се знатно повећали након 2012. када је дубоко учење надмашило све претходне технике вештачке интелигенције,[14] и после 2017. са архитектуром трансформатора.[15] Ово је довело до пролећа вештачке интелигенције почетком 2020-их, при чему су компаније, универзитети и лабораторије које су претежно са седиштем у Сједињеним Државама, остварили значајне пионирске напретке у вештачкој интелигенцији.[16] Све већа употреба вештачке интелигенције у 21. веку утиче на друштвени и економски помак ка повећању аутоматизације, доношења одлука заснованих на подацима и интеграцији система вештачке интелигенције у различите економске секторе и области живота, утичући на тржишта рада, здравство, владу , индустрија и образовање. Ово поставља питања о етичким импликацијама и ризицима од вештачке интелигенције, што подстиче дискусије о регулаторним политикама како би се осигурала безбедност и предности технологије. Различите подобласти вештачке интелигенције су истраживања усредсређена на одређене циљеве и употребу специфичних алата. Традиционални циљеви истраживања вештачке интелигенције обухватају расуђивање, представљање знања, планирање, учење, обрада природног језика, перцепција и подршка роботици.[а] Општа интелигенција (способност да се обави било који задатак који човек може да изврши) спада у дугорочне циљеве у овој области.[17] Да би решили ове проблеме, истраживачи вештачке интелигенције су прилагодили и интегрисали широк спектар техника решавања проблема, укључујући претрагу и математичку оптимизацију, формалну логику, вештачке неуронске мреже и методе засноване на статистици, операционом истраживању и економији.[б] Вештачка интелигенција се такође ослања на психологију, лингвистику, филозофију, неуронауку и друге области.[18]

Општи проблем симулације (или стварања) интелигенције подељен је на подпроблеме. Они се састоје од одређених особина или способности које истраживачи очекују да интелигентни систем покаже. Испод описане особине су задобиле највише пажње и покривају обим истраживања вештачке интелигенције.[а]

Основни циљеви истраживања на пољу вештачке интелигенције

[уреди | уреди извор]

Тренутно, када су у питању истраживања на пољу вештачке интелигенције, могуће је постићи два комплементарна циља, који респективно наглашавају два аспекта вештачке интелигенције, а то су теоријски и технолошки аспект.

Први циљ је студија људских когнитивних процеса уопште, што потврђује дефиницију Патрика Ј. Хејеса - „студија интелигенције као компутације“, чиме се вештачка интелигенција усмерава ка једној својеврсној студији интелигентног понашања код људи.

Вештачка интелигенција, као област информатике, бави се пројектовањем програмских решења за проблеме које настоји решити.

Размишљање и решавање проблема

[уреди | уреди извор]

Размишљање је процес извлачења закључака који одговарају датој ситуацији. Закључци се класификују као дедуктивни и индуктивни. Пример дедуктивног начина закључивања би могао бити, „Саво је или у музеју, или у кафићу. Није у кафићу; онда је сигурно у музеју“; и индуктивног, „Претходне несреће ове врсте су биле последица грешке у систему; стога је и ова несрећа узрокована грешком у систему“. Најзначајнија разлика између ова два начина закључивања је да, у случају дедуктивног размишљања, истинитост премисе гарантује истинитост закључка, док у случају индуктивног размишљања истинитост премисе даје подршку закључку без давања апсолутне сигурности његовој истинитости. Индуктивно закључивање је уобичајено у наукама у којима се сакупљају подаци и развијају провизиони модели за опис и предвиђање будућег понашања, све док се не појаве аномалије у моделу, који се тада реконструише. Дедуктивно размишљање је уобичајено у математици и логици, где детаљно обрађене структуре непобитних теорема настају од мањих скупова основних аксиома и правила. Постоје значајни успеси у програмирању рачунара за извлачење закључака, нарочито дедуктивне природе. Ипак, истинско размишљање се састоји од сложенијих аспеката; укључује закључивање на начин којим ће се решити одређени задатак, или ситуација. Ту се налази један од највећих проблема с којим се сусреће вештачка интелигенција.

Решавање проблема, нарочито у вештачкој интелигенцији, карактерише систематска претрага у рангу могућих акција с циљем изналажења неког раније дефинисаног решења. Методе решавања проблема се деле на оне посебне и оне опште намене. Метода посебне намене је тражење адаптираног решења за одређени проблем и садржи врло специфичне особине ситуација од којих се проблем састоји. Супротно томе, метод опште намене се може применити на шири спектар проблема. Техника опште намене која се користи у вештачкој интелигенцији је метод крајње анализе, део по део, или постепено додавање, односно редуковање различитости између тренутног стања и крајњег циља. Програм бира акције из листе метода - у случају једноставног робота кораци су следећи: PICKUP, PUTDOWN, MOVEFROWARD, MOVEBACK, MOVELEFT и MOVERIGHT, све док се циљ не постигне. Већи број различитих проблема су решени преко програма вештачке интелигенције. Неки од примера су тражење победничког потеза, или секвенце потеза у играма, сложени математички докази и манипулација виртуелних објеката у вештачким, односно синтетичким рачунарским световима.

Рани истраживачи су развили алгоритме који су имитирали размишљање корак по корак које људи користе када решавају загонетке или извођењу логичког закључка.[19] До касних 1980-их и 1990-их, развијене су методе за рад са несигурним или непотпуним информацијама, користећи концепте вероватноће и економије.[20]

Многи од ових алгоритама су недовољни за решавање великих проблема резоновања, јер доживљавају „комбинаторијску експлозију“: они постају експоненцијално спорији како проблеми постају све већи..[21] Чак и људи ретко користе дедукцију корак по корак, коју би рано истраживање вештачке интелигенције могло да моделира. Они решавају већину својих проблема користећи брзе, интуитивне одлуке.[22] Тачно и ефикасно резоновање је нерешен проблем.

Репрезентација знања

[уреди | уреди извор]
Онтологија представља знање као скуп концепата унутар домена и односа између тих концепата.

Представљање знања и инжењеринг знања[23] омогућавају програмима вештачке интелигенције да интелигентно одговарају на питања и доносе закључке о чињеницама из стварног света. Формалне репрезентације знања се користе у индексирању и претрагама заснованим на садржају,[24] тумачењу сцене,[25] подршци при доношењу клиничких одлука,[26] откривању знања (деривација „занимљивих“ и практичних закључака из великих база података)[27] и другим областима.[28]

База знања је тело знања представљено у облику који може да користи програм. Онтологија је скуп објеката, односа, концепата и својстава које користи одређени домен знања.[29] Базе знања треба да представљају ствари као што су: објекти, својства, категорије и односи између објеката;[30] ситуације, догађаји, стања и време;[31] узроци и последице;[32] знање о знању (шта знамо о томе што други људи знају);[33] подразумевано резоновање (ствари за које људи претпостављају да су истините док им се не каже другачије, и остаће истините чак и када се друге чињенице мењају);[34] и многи други аспекти и домени знања.

Међу најтежим проблемима у представљању знања су: ширина здраворазумског знања (скуп атомских чињеница које просечна особа зна је огроман);[35] и подсимболички облик већине здраворазумског знања (већи део онога што људи знају није представљен као „чињенице“ или „изјаве“ које би могли вербално да изразе).[22] Постоји такође тешкоћа стицања знања, проблем добијања знања за ВИ апликације.[в]

Планирање и доношење одлука

[уреди | уреди извор]

„Агент“ је све што опажа и предузима акције у свету. Рационални агент има циљеве или преференције и предузима акције да их оствари.[г][38] У аутоматизованом планирању, агент има специфичан циљ.[39] У аутоматизованом доношењу одлука, агент има преференције – постоје неке ситуације у којима би преферирао да буде, а неке покушава да избегне. Агент за доношење одлука свакој ситуацији додељује број (који се назива „корисност”) који мери колико је агент преферира. За сваку могућу акцију, може се израчунати „очекивана корисност“: корисност свих могућих исхода акције, пондерисана вероватноћом да ће се исход догодити. Затим се може изабрати акција са максималном очекиваном корисношћу.[40]

У класичном планирању, агент тачно зна какав ће бити ефекат било које акције.[41] У већини проблема у стварном свету, међутим, агент можда није сигуран у ситуацију у којој се налази (она је „непозната“ или „неуочљива“) и можда неће са сигурношћу знати шта ће се десити након сваке могуће акције (то није „детерминистичко”). Он мора да изабере акцију тако што ће направити пробабилистичку претпоставку, и затим поново проценити ситуацију да види да ли је акција била успешна.[42]

У неким проблемима, преференције агента могу бити неизвесне, посебно ако су укључени други агенти или људи. Оне се могу научити (нпр. уз инверзно учење са поткрепљивањем) или агент може тражити информације да побољша своје преференције.[43] Теорија вредности информација може се користити за одмеравање вредности истраживачких или експерименталних радњи.[44] Простор могућих будућих радњи и ситуација је обично нерешиво велик, тако да агенти морају да предузимају акције и процењују ситуације мада нису сигурни какав ће бити исход.

Марковљев процес одлучивања има транзициони модел који описује вероватноћу да ће одређена акција променити стање на одређени начин и функцију награђивања која обезбеђује корисност сваког стања и цену сваке акције. Устројство повезује одлуку са сваким могућим стањем. Курс одлука може да буде прорачунат (нпр. итерацијом), може бити хеуристичке природе или се може научити.[45]

Теорија игара описује рационално понашање више агената у интеракцији и користи се у ВИ програмима који доносе одлуке које укључују друге агенте.[46]

Постоји више различитих облика учења који су примењени на област вештачке интелигенције. Најједноставнији се односи на учење на грешкама преко покушаја. На пример, најједноставнији рачунарски програм за решавање проблема матирања у једном потезу у шаху, је истраживање мат позиције случајним потезима. Једном изнађено решење, програм може запамтити позицију и искористити је следећи пут када се нађе у идентичној ситуацији. Једноставно памћење индивидуалних потеза и процедура - познато као механичко учење - је врло лако имплементирати у рачунарски систем. Приликом покушаја имплементације тзв. уопштавања, јављају се већи проблеми и захтеви. Уопштавање се састоји од примене прошлих искустава на аналогне нове ситуације. На пример, програм који учи прошла времена глагола на српском језику механичким учењем, неће бити способан да изведе прошло време, рецимо глагола скочити, док се не нађе пред обликом глагола скочио, где ће програм који је способан за уопштавање научити „додај -о и уклони -ти“ правило, те тако формирати прошло време глагола скочити, заснивајући се на искуству са сличним глаголима.

Машинско учење је проучавање програма који могу аутоматски побољшати своје перформансе на датом задатку.[47] Оно је било део вештачке интелигенције од почетка.[д]

Постоји неколико врста машинског учења. Учење без надзора анализира ток података, проналази обрасце и изводи предвиђања без икаквог спољашњег упутства.[50] Учење под надзором захтева од човека да прво означи улазне податке, и долази у две главне варијанте: класификација (где програм мора да научи да предвиди којој категорији улаз припада) и регресија (где програм мора да изведе нумеричку функцију на основу нумеричког уноса).[51]

У подржаном учењу агент је награђен за добре одговоре и кажњен за лоше. Агент учи да бира одговоре који су класификовани као „добри“.[52] Трансферно учење примењује знање стечено из једног проблема на нови проблем.[53] Дубоко учење је врста машинског учења која покреће инпуте кроз биолошки инспирисане вештачке неуронске мреже за све ове врсте учења.[54]

Теорија рачунарског учења може проценити ученике према рачунској сложености, комплексности узорка (колико података је потребно) или другим појмовима оптимизације.[55]

Обрада природног језика

[уреди | уреди извор]

Обрада природног језика (NLP)[56] омогућава програмима да читају, пишу и комуницирају на људским језицима као што је енглески. Специфични проблеми укључују препознавање говора, синтезу говора, машинско превођење, екстракцију информација, проналажење информација и одговарање на питања.[57]

Рани радови, засновани на генеративној граматици и семантичким мрежама Ноама Чомског, имали су потешкоћа са разазначавањем смисла речи[ђ] осим ако нису били ограничени на мале домене зване „микро-светови“ (због проблема са поимањем здравог разума[35]). Маргарет Мастерман је веровала да је значење, а не граматика, кључ за разумевање језика и да би тезауруси, а не речници, требало да буду основа рачунске језичке структуре.

Савремене технике дубоког учења за NLP укључују уграђивање речи (који представљају речи, типично као векторе који кодирају њихово значење),[58] трансформаторе (архитектура дубоког учења која користи механизам пажње)[59] и друге.[60] Године 2019, генеративни унапред обучени трансформаторски (или „GPT“) језички модели почели су да генеришу кохерентан текст,[61][62] и до 2023. ови модели су могли да остваре резултате на нивоу човека на правосудном испиту, SAT тесту, GRE тесту, и у многим другим апликацијама у стварном свету.[63]

Перцепција

[уреди | уреди извор]

Машинска перцепција је способност да се користи улаз са сензора (као што су камере, микрофони, бежични сигнали, активни лидар, сонар, радар и тактилни сензори) да би се извели закључили о аспектима света. Компјутерски вид је способност анализе визуелног уноса.[64]

Ова област обухвата препознавање говора,[65] класификацију слика,[66] препознавање лица, препознавање објеката[67] и роботску перцепцију.[68]

Социјална интелигенција

[уреди | уреди извор]
Кисмет, глава робота која је направљена 1990-их; машина која може да препозна и симулира емоције.[69]

Афективно рачунарство је интердисциплинарна област који се састоји од система који препознају, тумаче, обрађују или симулирају људска осећања, емоције и расположење.[70] На пример, неки виртуелни асистенти су програмирани да конверзационо разговарају или чак да се шале на духовит начин. Они су стога осетљивији на емоционалну динамику људске интеракције, или да на други начин олакшају интеракцију између човека и рачунара.

Међутим, ово има тенденцију да наивним корисницима пружи нереалну концепцију интелигенције постојећих компјутерских агената.[71] Умерени успеси у вези са афективним рачунарством укључују текстуалну анализу осећања и, у скорије време, мултимодалну анализу осећања, где ВИ класификује афекте које приказује субјект приказан на видео снимку.[72]

Општа интелигенција

[уреди | уреди извор]

Машина са вештачком општом интелигенцијом требало би да буде у стању да реши широк спектар проблема са ширином и свестраношћу која је слична људској интелигенцији.[17]

Проблем дефиниције вештачке интелигенције

[уреди | уреди извор]

За разлику од других области, у вештачкој интелигенцији не постоји сагласност око једне дефиниције, него их има више зависно од различитих погледа и метода за решавање проблема.

Дефиниција и циљеви

[уреди | уреди извор]

Упркос времену које је прошло од када је Џон Макарти дао име овој области на конференцији одржаној 1956. године у Дартмуду, није нимало лако тачно дефинисати садржај и достигнућа вештачке интелигенције.

Највероватније, једна од најкраћих и најједноставнијих карактеристика која се приписује вештачкој интелигенцији, парафразирајући Марвина Минског, (једног од стручњака и најпознатијих истраживача вештачке интелигенције), је „конструисање рачунарских система са особинама које би код људских бића биле окарактерисане као интелигентне“.

Тјурингов тест

[уреди | уреди извор]
Људско и вештачко интелигентно понашање.

У познатом такозваном Тјуринговом тесту, који је Алан Тјуринг описао и објавио у једном чланку из 1950. године, под насловом Computing machinery and intelligence (Рачунске машине и интелигенција), предлаже се један експеримент чији је циљ откривање интелигентног понашања једне машине. Тест полази од једне игре у којој испитивач треба да погоди пол два интерлокутора, A и Б, а који се налазе у посебним и одвојеним собама. Иако обоје тврде да су женског пола, у ствари ради се о мушкарцу и жени. У изворном Тјуринговом предлогу урађена је извесна модификација, те је жену заменио рачунар. Испитивач треба да погоди ко је од њих машина, полазећи од њиховог међусобног разговора и имајући у виду да обоје тврде да су људи. Задатак треба постићи упркос чињеници да ниједан од интерлокутора није обавезан да говори истину, те на пример, машина може одлучити да да погрешан резултат једне аритметичке операције, или чак да га саопшти много касније како би варка била уверљивија.

По оптимистичкој хипотези самог Тјуринга, око 2000. године, већ је требало да постоје рачунари оспособљени за игру ове игре довољно добро, тако да просечан испитивач нема више од 70% шансе да уради исправну идентификацију, након пет минута постављања питања. Када би то данас заиста било тако, налазили би се пред једном истински интелигентном машином, или у најмању руку машином која уме да се представи као интелигентна. Не треба ни поменути да су Тјурингова предвиђања била превише оптимистична, што је био врло чест случај у самим почецима развоја области вештачке интелигенције. У стварности проблем није само везан за способност рачунара за обраду података, него на првом мјесту, за могућност програмирања рачунара са способностима за интелигентно понашање.

Вештачка интелигенција у образовању

[уреди | уреди извор]

Сан о рачунарима који би могли да образују ученике и студенте, више деценија је инспирисао научнике когнитивне науке. Прва генерација таквих система (названи Computer Aided Instruction или Computer Based Instruction), углавном су се заснивали на хипертексту. Структура тих система се састојала од презентације материјала и питања са више избора, која шаљу ученика на даље информације, у зависности од одговора на постављена питања.

Наредна генерација ових система Intelligent CAI или Intelligent Tutoring Systems, заснивали су се на имплементацији знања о одређеној теми, у сам рачунар. Постајала су два типа оваквих система. Први је тренирао ученика у самом процесу решавања сложених проблема, као што је нпр. препознавање грешака дизајна у једном електричном колу или писање рачунарског програма. Други тип система је покушавао да одржава силогистички дијалог са студентима. Имплементацију другог типа система је било врло тешко спровести у праксу, великим делом због проблема програмирања система за разумевање спонтаног и природног људског језика. Из тог разлога, пројектовано их је само неколико.

Типични систем за тренирање ученика и студената се обично састоји од четири основне компоненте.

  1. Прва компонента је окружење у којем ученик или студент ради на решавању сложених задатака. То може бити симулација компоненте или компонената електронских уређаја представљена као серија проблема које студент треба да реши.
  2. Друга компонента је експертски систем који може решити представљене проблеме на којима студент ради.
  3. Трећу чини један посебан модул који може упоредити решења која нуди студент са онима које су уграђене у експертски систем и његов циљ је да препозна студентов план за решење проблема, као и које делове знања највероватније студент користи.
  4. Четврту чини педагошки модул који сугерише задатке које треба решити, одговара на питања студента и указује му на могуће грешке. Одговори на питања студента и сугестије за планирање решавања задатака, заснивају се на прикупљеним подацима из претходног модула.

Свака од ових компонената може користити технологију вештачке интелигенције. Окружење може садржати софистицирану симулацију или интелигентног агента, односно симулираног студента или чак опонента студенту. Модул који чини експертски систем се састоји од класичних проблема вештачке интелигенције, као што су препознавање плана и резоновање над проблемима који укључују неизвесност. Задатак педагошког модула је надгледање плана инструкције и његово адаптирање на основу нових информација о компетентности студента за решавање проблема. Упркос сложености система за тренирање ученика и студената, пројектовани су у великом броју, а неки од њих се регуларно користе у школама, индустрији и за војне инструкције.

Истраживање вештачке интелигенције користи широк спектар техника за постизање горе наведених циљева.[б]

Претрага и оптимизација

[уреди | уреди извор]

ВИ може да реши многе проблеме интелигентним претраживањем многих могућих решења.[73] Постоје две веома различите врсте претраге које се користе у ВИ: претрага простора стања и локална претрага.

Претрага простора стања

[уреди | уреди извор]

Претрага простора стања претражује стабло могућих стања како би покушала да пронађе циљно стање.[74] На пример, алгоритми планирања претражују кроз стабла циљева и подциљева, покушавајући да пронађу пут до жељеног циља, процес који се назива анализа средстава и циљева.[75]

Једноставне исцрпне претраге[76] ретко су довољне за већину проблема из стварног света: простор за претрагу (број места за претрагу) брзо расте до астрономских размера. Резултат је претрага која је преспора или се никада не завршава.[21]Хеуристика“ или „правила палца“ могу помоћи да се одреде приоритети избора за које је већа вероватноћа да ће постићи циљ.[77]

Супарничка претрага се користи за програме за играње игара, као што су шах или го. Она претражује стабло могућих потеза и контра-потеза, тражећи победничку позицију.[78]

Локална претрага

[уреди | уреди извор]
Илустрација градијентног спуштања за 3 различите почетне тачке. Два параметра (представљена координатама плана) су подешена да би се функција губитка (висина) минимизирала.

Локална претрага користи математичку оптимизацију да пронађе решење за проблем. Почиње неким обликом нагађања и постепено га рафинира.[79]

Опадајуће спуштање је врста локалне претраге која оптимизује скуп нумеричких параметара тако што их поступно прилагођава да би се минимизовала функција губитка. Варијанте градијентног спуштања се обично користе за обуку неуронских мрежа.[80]

Други тип локалне претраге је еволуционо рачунање, које има за циљ да итеративно побољша скуп решења кандидата тако што ће их „мутирати“ и „рекомбиновати“, бирајући само најспособније да преживе сваку генерацију.[81]

Дистрибуирани процеси претраживања могу да се координирају преко алгоритама ројевске интелигенције. Два популарна ројевска алгоритма који се користе у претраживању су оптимизација роја честица (инспирисана јатом птица) и оптимизација колонија мрава (инспирисана мрављим стазама).[82]

Формална логика се користи за расуђивање и представљање знања.[83] Формална логика долази у два главна облика: пропозициона логика (која оперише на изјавама које су истините или нетачне, и користи логичке повезнице као што су „и“, „или“, „не“ и „имплицира“[84] и предикатска логика (која такође ради на објектима, предикатима и односима и користи квантификаторе као што су „Свако X је Y“ и „Постоје неки X-еви који су Y“).[85]

Логички закључак (или дедукција) је процес доказивања новог исказа (закључка) на основу других исказа за које се већ зна да су тачни (премисе).[86] Логичка база знања такође обрађује упите и тврдње као посебан случај закључивања.[87] Правило закључивања описује шта је ваљан корак у доказу. Најопштије правило закључивања је резолуција.[88] Закључивање се може свести на извођење претраге како би се пронашао пут који води од премиса до закључака, где је сваки корак примена правила закључивања.[89] Закључак изведен на овај начин је недосежан осим за кратке доказе у ограниченим доменима. Није откривен ниједан ефикасан, моћан и општи метод.

Расплинута логика приписује „степен истине“ између 0 и 1. Стога може да обрађује пропозиције које су нејасне и делимично тачне.[90] Немонотонске логике су дизајниране да обрађују подразумевано резоновање.[34] Друге специјализоване верзије логике су развијене да опишу многе сложене домене (погледајте репрезентацију знања изнад).

Пробабилистичке методе за неизвесно резоновање

[уреди | уреди извор]
Једноставна Бајесова мрежа, са придруженим табелама условних вероватноћа.

Многи проблеми у области вештачке интелигенције (укључујући расуђивање, планирање, учење, перцепцију и роботику) захтевају од агента да ради са непотпуним или несигурним информацијама. Истраживачи вештачке интелигенције су осмислили бројне алате за решавање ових проблема користећи методе из теорије вероватноће и економије.[91]

Бајесове мреже[92] су веома општи алат који се може користити за многе проблеме, укључујући расуђивање (користећи алгоритам Бајесовог закључивања),[е][94] учење (користећи алгоритам максимизације очекивања),[ж][96] планирање (користећи мреже одлучивања)[97] и перцепцију (користећи динамичке Бајесове мреже).[98]

Пробабилистички алгоритми се такође могу користити за филтрирање, предвиђање, уједначавање и проналажење објашњења за токове података, помажући системима перцепције да анализирају процесе који се дешавају током времена (нпр. скривени Марковљеви модели или Калманови филтри).[98]

Развијени су прецизни математички алати који анализирају како агент може да доноси изборе и планира, користећи теорију одлучивања, анализу одлука,[99] и теорију вредности информација.[100] Ови алати укључују моделе као што су Марковљеви процеси одлучивања,[101] динамичке мреже одлучивања,[98] теорија игара и дизајн механизама.[102]

Груписање података о ерупцијама Старог Верног са максимизацијом очекивања почиње од случајног нагађања, али се затим успешно приближава тачном груписању два физички различита начина ерупције.

Класификатори и статистичке методе учења

[уреди | уреди извор]

Најједноставније ВИ апликације се могу поделити у два типа: класификатори (нпр. „ако је сјајан онда је дијамант“), с једне стране, и контролери (нпр. „ако је дијамант онда га узми“), с друге стране. Класификатори[103] су функције које користе подударање шаблона за одређивање најближег подударања. Могу се фино подесити на основу одабраних примера коришћењем учења под надзором. Сваки образац (који се назива и „опсервација”) је означен одређеном унапред дефинисаном класом. Сва запажања у комбинацији са њиховим ознакама класа позната су као скуп података. Када се прими ново запажање, то запажање се класификује на основу претходног искуства.[51]

У употреби је много врста класификатора. Стабло одлучивања је најједноставнији и најчешће коришћени симболички алгоритам машинског учења.[104] Алгоритам К-најближег суседа је био најраспрострањенији аналогни вид вештачке интелигенције до средине 1990-их, а методе кернела као што је метода потпорних вектора (SVM) су замениле приступ к-најближег суседа током 1990-их.[105] Наивни Бајесов класификатор се сматра „највише коришћеним видом учења“[106] у Гуглу, делимично због своје скалабилности.[107] Неуронске мреже се такође користе као класификатори.[108]

Вештачке неуронске мреже

[уреди | уреди извор]
Неуронска мрежа је међусобно повезана група чворова, слична огромној мрежи неурона у људском мозгу.

Вештачка неуронска мрежа се заснива на колекцији чворова познатих и као вештачки неурони, који лабаво моделују неуроне у биолошком мозгу. Она је обучена да препозна обрасце; када се једном обучи, може препознати те обрасце у свежим подацима. Постоји улаз, најмање један скривени слој чворова и излаз. Сваки чвор примењује функцију и када тежина пређе одређени праг, подаци се преносе на следећи слој. Мрежа се обично назива дубоком неуронском мрежом ако има најмање 2 скривена слоја.[108]

Алгоритми за учење за неуронске мреже користе локалну претрагу да би одабрали параметре које ће произвести адекватан излаз за сваки улаз током тренинга. Најчешћа техника обуке је алгоритам бекпропагације.[109] Неуронске мреже уче да моделују сложене односе између улаза и излаза и проналазе обрасце у подацима. У теорији, неуронска мрежа може научити било коју функцију.[110]

У неуронским мрежама директне комуникације сигнал пролази само у једном правцу.[111] Рекурентне неуронске мреже враћају излазни сигнал назад у улаз, што омогућава краткорочно памћење претходних улазних догађаја. Дуга краткорочна меморија је најуспешнија мрежна архитектура за рекурентне мреже.[112] Перцептрони[113] користе само један слој неурона, дубоко учење[114] користи више слојева. Конволуционе неуронске мреже јачају везу између неурона који су „блиски“ један другом – ово је посебно важно у обради слике, где локални скуп неурона мора да идентификује „ивицу“ пре него што мрежа може да идентификује објекат.[115]

Дубоко учење

[уреди | уреди извор]
Хијерархија вештачке интелигенције

Дубоко учење[114] користи неколико слојева неурона између улаза и излаза мреже. Више слојева може прогресивно извући карактеристике вишег нивоа из сировог уноса. На пример, у обради слике, нижи слојеви могу да идентификују ивице, док виши слојеви могу да идентификују концепте релевантне за човека као што су цифре, слова или лица.[116]

Дубоко учење је знатно побољшало перформансе програма у многим важним подобластима вештачке интелигенције, укључујући компјутерски вид, препознавање говора, обраду природног језика, класификацију слика[117] и друге. Разлог због којег дубоко учење има тако добре резултате у толиком броју апликација није познат према подацима из 2023. године.[118] До изненадног успеха дубоког учења 2012–2015. није дошло због неког новог открића или теоријског продора (дубоке неуронске мреже и пропагацију уназад су описали многи људи још од 1950-их)[з] већ због два фактора: невероватно повећање снаге рачунара (укључујући стоструко повећање брзине преласком на GPU процесоре) и доступност огромних количина података за обуку, посебно гигантских разврстаних скупова података који се користе за контролно тестирање, као што је ImageNet.[и]

Генеративни унапред обучени трансформатори (GPT) су велики језички модели који се заснивају на семантичким односима између речи у реченицама (обрада природног језика). GPT модели засновани на тексту су унапред обучени за велики корпус текста који може бити преузет са интернета. Претходна обука се састоји у предвиђању следеће лексеме (токен је обично реч, подреч или интерпункција). Током ове пред-обуке, GPT модели акумулирају знање о свету, а затим могу да генеришу текст сличан оном који су људи створили понављањем предвиђања следећег токена. Типично, наредна фаза обуке чини модел истинитијим, кориснијим и безопаснијим, обично уз технику која се зове подржано учење на основу људских повратних информација (RLHF). Садашњи GPT модели су још увек склони генерисању неистина које се називају „халуцинације“, иако се то може смањити помоћу RLHF и података о квалитету. Користе се у чатботовима, који омогућавају кориснику да постави питање или да постави задатак једноставним текстом.[127][128]

Тренутни модели и услуге укључују: Гемини (раније Бард), ChatGPT, Грок, Клод, Копилот и LLaMA.[129] Мултимодални GPT модели могу да обрађују различите типове података (модалитета) као што су слике, видео записи, звук и текст.[130]

Специјализовани хардвер и софтвер

[уреди | уреди извор]

Крајем 2010-их, графичке процесорске јединице (GPU) које су све више дизајниране са побољшањима специфичним за ВИ и коришћене са специјализованим TensorFlow софтвером, у знатној мери су замениле претходно коришћену централну процесорску јединицу (CPU) као доминантно средство за велике (комерцијалне и академске) обуке модела машинског учења.[131] Историјски гледано, коришћени су специјализовани језици, као што су Лисп, Пролог, Питон и други.

Технологија вештачке интелигенције и машинског учења се користи у већини есенцијалних апликација 2020-их, укључујући: претраживаче (као што је Гугл претрага), циљање онлајн реклама, системе препорука (које нуде Нетфликс, Јутјуб или Амазон), повећање интернет саобраћаја, циљано оглашавање (Адсенс, Фејсбук), виртуелни асистенти (као што су Сири или Алекса), аутономна возила (укључујући дронове, ADAS и самовозеће аутомобиле), аутоматски превод језика (Мајкрософт преводилац, Гугл преводилац), препознавање лица (Еплов Фејс ИД или Мајкрософтов Дипфејс и Гуглов Фејснет) и означавање слика (које користе Фејсбук, Еплов Ајфото и Тикток).

Здравље и медицина

[уреди | уреди извор]

Примена вештачке интелигенције у медицини и медицинским истраживањима има потенцијал да побољша негу пацијената и квалитет живота.[132] Кроз сочиво Хипократске заклетве, медицински радници су етички приморани да користе вештачку интелигенцију, ако апликације могу прецизније да дијагнозирају и лече пацијенте.

За медицинска истраживања, ВИ је важан алат за обраду и интеграцију великих количина података. Ово је посебно важно за развој органоидног и ткивног инжењеринга који користи микроскопско снимање као кључну технику у производњи.[133] Предложено је да вештачка интелигенција може да превазиђе разлике у финансирању додељене различитим областима истраживања.[133] Нови ВИ алати могу продубити наше разумевање биомедицински релевантних путева. На пример, Алфафолд 2 (2021) је показао способност да се апроксимира, у временском распону од неколико сати, а не месеци, 3Д структура протеина.[134] Године 2023, објављено је да је откривање лекова вођено вештачком интелигенцијом помогло у проналажењу класе антибиотика способних да убију две различите врсте бактерија отпорних на лекове.[135]

Програми за играње игрица се користе од 1950-их за демонстрацију и тестирање најнапреднијих техника вештачке интелигенције.[136] Дип блу је постао први компјутерски систем за играње шаха који је победио актуелног светског шампиона у шаху, Гарија Каспарова, 11. маја 1997. године.[137] Године 2011, у егзибиционом мечу квиз шоа Jeopardy!, IBM-ов систем одговора на питања, Вотсон, победио је два највећа шампиона шоа, Брада Рутера и Кена Џенингса, са значајном маргином.[138] У марту 2016, Алфаго је победио у 4 од 5 игара гоа у мечу са го шампионом Лијем Седолом, поставши први компјутерски го-играчки систем који је победио професионалног го играча без хендикепа. Затим је 2017. победио Ке Јија, који је био најбољи го играч на свету.[139] Други програми обрађују игре са несавршеним информацијама, као што је програм за играње покера Плурибус.[140] Дипмајд је развио све генералистичке моделе подржаног учења, као што је Музеро, који би се могао обучити да игра шах, го или Атари игре.[141] У 2019. години, Дипмајндов Алфастар је достигао ниво велемајстора у Старкрафт II, посебно изазовној стратешкој игри у реалном времену која укључује непотпуно знање о томе шта се дешава на мапи.[142] Године 2021, ВИ агент се такмичио у Плејстејшон Гран Турисмо такмичењу, победивши четири најбоља светска возача Гран Турисма користећи подржано дубоко учење.[143]

Разне земље примењују ВИ војне апликације.[144] Главне апликације побољшавају команду и контролу, комуникације, сензоре, интеграцију и интероперабилност.[145] Истраживање је усмерено на прикупљање и анализу обавештајних података, логистику, сајбер операције, информационе операције, и полуаутономна и аутономна возила.[144] ВИ технологије омогућавају координацију сензора и ефектора, откривање и идентификацију претњи, обележавање непријатељских позиција, фокусирање на мете, координацију и деконфликацију дистрибуираних заједничких паљби између умрежених борбених возила која укључују тимове са посадом и без посаде.[145] ВИ је била укључена у војне операције у Ираку и Сирији.[144]

У новембру 2023. године, потпредседница САД Камала Харис објавила је декларацију коју је потписала 31 држава о постављању заштитних ограда за војну употребу IA. Обавезе укључују коришћење правних прегледа како би се осигурала усклађеност војне вештачке интелигенције са међународним законима, као и опрез и транспарентност у развоју ове технологије.[146]

Генеративна вештачка интелигенција

[уреди | уреди извор]
Винцент ван Гог у акварелу креиран генеративним ВИ софтвером

Почетком 2020-их, генеративна вештачка интелигенција је стекла широку важност. У марту 2023, 58% одраслих у САД је чуло за ChatGPT, а 14% га је опробало.[147] Све већи реализам и лакоћа коришћења генератора текста у слику заснованих на вештачкој интелигенцији, као што су Midjourney, DALL-E и Стабилна дифузија, изазвали су тренд виралних ВИ-генерисаних фотографија. Широку пажњу привукла је лажна фотографија папе Фрање у белом пуфер капуту, измишљено хапшење Доналда Трампа и обмана о нападу на Пентагон, као и употреба у професионалној креативној уметности.[148][149]

Задаци специфични за индустрију

[уреди | уреди извор]

Такође постоје хиљаде успешних ВИ апликација које се користе за решавање специфичних проблема за одређене индустрије или институције. У истраживању из 2017. године, једна од пет компанија је изјавила да је инкорпорирала „ВИ“ у неке понуде или процесе.[150] Неколико примера су складиштење енергије, медицинска дијагностика, војна логистика, апликације које предвиђају резултат судских одлука, спољна политика или управљање ланцем снабдевања.

У пољопривреди, вештачка интелигенција је помогла пољопривредницима да идентификују подручја којима је потребно наводњавање, ђубрење, третмани пестицидима, што доводи до повећања приноса. Агрономи користе вештачку интелигенцију за спровођење истраживања и развоја. ВИ се користи за предвиђање времена сазревања усева као што је парадајз, праћење влаге у земљишту, управљање пољопривредним роботима, спровођење предиктивне аналитике, класификацију емоција парења код свиња, аутоматизацију стакленика, откривање болести и штеточина, и уштеду воде.

Вештачка интелигенција се користи у астрономији за анализу све веће количине доступних података и апликација, углавном за „класификацију, регресију, груписање, предвиђање, генерисање, откриће и развој нових научних увида“, на пример за откривање егзопланета, предвиђање соларне активности и разликовање сигнала и инструменталних ефеката у астрономији гравитационих таласа. Такође би се могла користити за активности у свемиру као што је истраживање свемира, укључујући анализу података из свемирских мисија, научне одлуке свемирских летелица у реалном времену, избегавање свемирског отпада и аутономнији рад.

Вештачка интелигенција, као и свака моћна технологија, има потенцијалне предности и потенцијалне ризике. Сматра се да вештачка интелигенција може да унапреди науку и пронађе решења за озбиљне проблеме: Демис Хасабис из Дип Мајнда се нада да ће „решити интелигенцију, а затим то искористити да реши све остало“.[151] Међутим, како је употреба вештачке интелигенције постала широко распрострањена, идентификовано је неколико нежељених последица и ризика.[152]

Свако ко жели да користи машинско учење као део стварног света, система у производњи, треба да уведе етику у своје процесе ВИ обуке и настоји да избегне пристрасност. Ово је посебно тачно када се у дубоком учењу користе ВИ алгоритми који су инхерентно необјашњиви.[153]

Ризици и штета

[уреди | уреди извор]

Приватност и ауторска права

[уреди | уреди извор]

Алгоритми машинског учења захтевају велике количине података. Технике које се користе за добијање ових података изазвале су забринутост у вези са приватношћу, надзором и ауторским правима.

Технолошке компаније прикупљају широк спектар података од својих корисника, укључујући онлајн активности, геолокацијске податке, видео и аудио записе.[154] На пример, да би изградио алгоритме за препознавање говора, Амазон је снимио милионе приватних разговора и дозволио привременим радницима да слушају и транскрибују неке од њих.[155] Мишљења о овом широко распрострањеном надзору се крећу од оних који га виде као неопходно зло до оних за које је то очигледно неетично и кршење права на приватност.[156]

ВИ програмери тврде да је то једини начин да се испоруче вредне апликације, и да су развили неколико техника које покушавају да очувају приватност док и се даље добијају подаци, као што су агрегација података, деидентификација и диференцијална приватност.[157] Од 2016. неки стручњаци за приватност, попут Синтије Дворк, почели су да посматрају приватност у смислу правичности. Брајан Кристијан је написао да су се стручњаци окренули „од питања 'шта знају' на питање 'шта раде с тим'”.[158]

Генеративна вештачка интелигенција се често обучава на нелиценцираним делима заштићеним ауторским правима, укључујући и домене као што су слике или компјутерски код; резултат се онда користи под образложењем „поштене употребе“. Такође власници веб локација који не желе да њихов садржај заштићен ауторским правима буде ВИ индексиран или 'оструган' могу да додају код на своју веб локацију, ако не желе да њихов сајт буде индексиран од стране претраживача, који је тренутно доступан за одређене сервисе као што је OpenAI. Стручњаци се не слажу око тога колико добро и под којим околностима ће се ово образложење одржати на судовима; релевантни фактори могу укључивати „сврху и карактер коришћења дела заштићеног ауторским правима“ и „утицај на потенцијално тржиште дела заштићеног ауторским правима“.[159] Године 2023, водећи аутори (укључујући Џона Гришама и Џонатана Франзена) тужили су ВИ компаније због коришћења њиховог рада за обуку генеративне вештачке интелигенције.[160][161]

Дезинформације

[уреди | уреди извор]

Јутјуб, Фејсбук и други користе системе препорука који воде кориснике до више садржаја. Овим ВИ програмима је дат циљ да максимизирају ангажовање корисника (то јест, једини циљ је био да људи што више гледају). Вештачка интелигенција је спознала да корисници имају тенденцију да бирају дезинформације, теорије завере и екстремне партијске садржаје, и да би их задржала да гледају, ВИ је препоручила више тога. Корисници су такође имали тенденцију да гледају више садржаја на исту тему, тако да је вештачка интелигенција довела људе до филтерских мехурића где су добијали више верзија истих дезинформација.[162] То је многе кориснике уверило да су дезинформације истините и на крају поткопало поверење у институције, медије и владу.[163] ВИ програм је исправно научио да максимизира свој циљ, али резултат је био штетан за друштво. Након избора у САД 2016. године, велике технолошке компаније предузеле су кораке да ублаже проблем.

Године 2022, генеративна вештачка интелигенција је почела да ствара слике, аудио, видео и текст који се не разликују од стварних фотографија, снимака, филмова или људског писања. Постоји могућност је да лоши актери користе ову технологију за стварање огромне количине дезинформација или пропаганде.[164] Пионир вештачке интелигенције Џефри Хинтон изразио је забринутост због тога што, поред осталих ризика, вештачка интелигенција омогућава „ауторитарним лидерима да манипулишу својим бирачким телом“ у великим размерама.[165]

Алгоритамска пристрасност и правичност

[уреди | уреди извор]

Апликације за машинско учење ће бити пристрасне ако уче из пристрасних података.[166] Могуће је да градитељи нису свесни да пристрасност постоји.[167] Пристрасност се може унети начином на који се бирају подаци за обуку и начином на који је модел примењује.[168][166] Ако се пристрасни алгоритам користи за доношење одлука које могу озбиљно да нашкоде људима (као што може бити случај у медицини, финансијама, запошљавању, стамбеној изградњи или одржавању реда), онда алгоритам може довести до дискриминације.[169] Праведност у машинском учењу је студија о томе како спречити штету узроковану алгоритамском пристрасношћу. То је постала озбиљна област академског проучавања унутар ВИ. Истраживачи су открили да није увек могуће дефинисати „правичност“ на начин који задовољава све заинтересоване стране.[170]

Дана 28. јуна 2015, нова функција за означавање слика у Гугл фотографијама грешком је идентификовала Џеки Алсиа и пријатеља као „гориле“ јер су они црни. Систем је обучен на скупу података који је садржао врло мало слика црних људи,[171] што је проблем који се назива „диспаритет величине узорка“.[172] Гугл је „поправио” овај проблем тако што је спречио систем да било шта означи као „горила”. Осам година касније, 2023. године, Гугл фотографије и даље нису могле да идентификују горилу, као ни слични производи из Епла, Фејсбука, Мајкрософта и Амазона.[173]

COMPAS је комерцијални програм који судови у САД нашироко користе за процену вероватноће да ће оптужени постати рецидивиста. У 2016, Џулија Енгвин из Пропаблика открила је да COMPAS показује расну пристрасност, упркос чињеници да у програму нису биле наведене расе оптужених. Иако је стопа грешке за белце и за црнце једнако калибрисана на тачно 61%, грешке за сваку расу су биле различите — систем је доследно прецењивао шансе да ће црнац поновити прекршај и потцењивао шансе да белац неће то учинити.[174] У 2017. години, неколико истраживача[ј] је показало да је математички немогуће да COMPAS прихвати све могуће мере правичности када су основне стопе понављања прекршаја биле различите за белце и црнце у подацима.[176]

Програм може доносити пристрасне одлуке чак и ако подаци експлицитно не помињу проблематичну карактеристику (као што је „раса“ или „пол“). Функција ће бити у корелацији са другим карактеристикама (као што су „адреса“, „историја куповине“ или „име“), а програм ће доносити исте одлуке на основу ових карактеристика као и о „раси“ или „полу“.[177] Мориц Харт је рекао да је „најробуснија чињеница у овој области истраживања да правичност кроз слепило не функционише.“[178]

Критика COMPAS-а је истакла дубљи проблем са злоупотребом ВИ. Модели машинског учења су дизајнирани да праве „предвиђања“ која су важећа само ако се претпоставља да ће будућност личити на прошлост. Ако су обучени на основу података који укључују резултате расистичких одлука у прошлости, модели машинског учења морају предвидети да ће се расистичке одлуке доносити у будућности. Нажалост, ако апликација тада користи ова предвиђања као препоруке, неке од ових препорука ће вероватно бити расистичке.[179] Према томе, машинско учење није добро прилагођено да помогне у доношењу одлука у областима у којима постоји нада да ће будућност бити боља од прошлости. Оно је нужно дескриптивно, а не проскриптивно.[к]

Пристрасност и неправедност могу остати неоткривени, јер су градитељи претежно белци и мушкарци: међу инжењерима вештачке интелигенције, око 4% су црнци, а 20% жене.[172]

На својој Конференцији о правичности, одговорности и транспарентности 2022. (ACM FAccT 2022) Удружење за рачунарске машине у Сеулу, Јужна Кореја, представило је и објавило налазе у којима препоручује да док се не покаже да су вештачка интелигенција и роботски системи без грешака пристрасности, они нису безбедни и коришћење самоучећих неуронских мрежа обучених на огромним, нерегулисаним изворима мањкавих интернет података треба да се ограничи.[181]

Недостатак транспарентности

[уреди | уреди извор]
Лидар тестно возило за аутономну вожњу

Многи системи вештачке интелигенције су толико сложени да њихови дизајнери не могу да објасне како се долази до одлука.[182] То је посебно случај са дубоким неуронским мрежама, у којима постоји велика количина нелинеарних односа између улаза и излаза. Међутим постоје неке популарне технике за објашњавање.[183]

Било је много случајева где је програм машинског учења прошао ригорозне тестове, али је ипак научио нешто другачије од онога што су програмери намеравали. На пример, откривено је да систем који би могао да идентификује кожне болести боље од медицинских стручњака заправо има јаку тенденцију да класификује слике са лењиром као „канцерогене“, јер слике малигнитета обично укључују лењир који показује размеру.[184] Утврђено је да је један други систем машинског учења, који је осмишљен да помогне у ефикасној алокацији медицинских ресурса, класификује пацијенте са астмом да имају „ниски ризик” да умру од упале плућа. Имати астму је заправо озбиљан фактор ризика, али пошто би пацијенти са астмом обично добијали много више медицинске неге, релативно мало је вероватно да ће умрети према подацима обуке. Корелација између астме и ниског ризика од умирања од упале плућа била је стварна, али заваравајућа.[185]

Људи који су оштећени одлуком алгоритма имају право на објашњење. Од лекара се, на пример, захтева да јасно и потпуно објасне разлоге за сваку одлуку коју донесу.[186] Рани нацрти Опште уредбе о заштити података Европске уније из 2016. године укључивали су експлицитну изјаву да ово право постоји.[л] Стручњаци из индустрије су приметили да је ово нерешен проблем без решења на видику. Регулатори су тврдили да је штета ипак стварна: ако проблем нема решење, не треба користити алате.[187] DARPA је успоставила програм XAI („Објашњива вештачка интелигенција“) 2014. у покушају да се реше ови проблеми.[188]

Постоји неколико потенцијалних решења за проблем транспарентности. SHAP помаже да се визуелизује допринос сваке карактеристике резултату.[189] LIME може локално апроксимирати модел са једноставнијим моделом који се може интерпретирати.[190] Вишезадатно учење пружа велики број резултата поред циљне класификације. Ови други резултати могу помоћи развијачима да разлуче шта је мрежа научила.[191] Деконволуција, Дипдрим и друге генеративне методе могу омогућити стручњацима да виде шта су различити слојеви дубоке мреже научили и произведу излаз који може да сугерише шта мрежа учи.[192]

Конфликт, присмотра и наоружана вештачка интелигенција

[уреди | уреди извор]

Смртоносно аутономно оружје је машина која лоцира, бира и ангажује људске мете без људског надзора.[љ] До 2015. године пријављено је да преко педесет земаља истражује роботе на бојном пољу.[194] Ово оружје се сматра посебно опасним из неколико разлога: ако убије невину особу, није јасно ко треба да одговара, мало је вероватно да ће поуздано изабрати мете, а ако се производи у великим размерама, то је потенцијално оружје за масовно уништење.[195] У 2014. години, 30 држава (укључујући Кину) подржало је забрану аутономног оружја у складу са Конвенцијом о одређеном конвенционалном оружју Уједињених нација, међутим Сједињене Државе и други се с тим нису сложили.[196]

Вештачка интелигенција пружа низ алата који су посебно корисни за ауторитарне владе: паметни шпијунски софтвер, препознавање лица и гласа омогућавају широко распрострањено праћење; такав надзор омогућава машинском учењу да класификује потенцијалне непријатеље државе и може спречити да се скривају; системи препорука могу прецизно испоручивати пропаганду и дезинформације ради максималног ефекта; дипфејкови и генеративна вештачка интелигенција помажу у стварању дезинформација; напредна вештачка интелигенција може учинити ауторитарно централизовано доношење одлука конкурентнијим либералним и децентрализованим системима као што су тржишта.[197]

Системи вештачке интелигенције за препознавање лица се користе за масовно надгледање, посебно у Кини.[198][199] Године 2019, Бенгалуру у Индији је поставио саобраћајне сигнале којима управља вештачка интелигенција. Овај систем користи камере за праћење густине саобраћаја и прилагођавање времена сигнала на основу интервала потребног за растерећење саобраћаја.[200] Терористи, криминалци и одметничке државе могу да користе наоружану вештачку интелигенцију као што је напредно дигитално ратовање и смртоносно аутономно оружје. Вештачка интелигенција са машинским учењем је такође у стању да дизајнира десетине хиљада токсичних молекула за неколико сати.[201]

Безбедносне смернице за протеине дизајниране вештачком интелигенцијом

[уреди | уреди извор]

Истраживачи су покренули иницијативу која позива на безбедну и етичку употребу дизајна протеина. Добровољни напор долази након извештаја законодаваца, истраживачких центара и других организација које истражују могућност да алати вештачке интелигенције — у распону од мрежа за предвиђање структуре протеина као што је Алфафолд до великих језичких модела као што је онај који покреће ChatGPT — могу олакшати за развој биолошког оружја, укључујући нове токсине или високо преносиве вирусе. Нова иницијатива позива биодизајнерску заједницу да врши контролу и да се побољша скрининг синтезе ДНК, што је кључни корак у прављењу протеина дизајнираних посредством вештачке интелигенције, за потенцијално штетне молекуле.[202][203]

Технолошка незапосленост

[уреди | уреди извор]

Од раних дана развоја вештачке интелигенције постојали су аргументи, на пример они које је изнео Џозеф Вајзенбаум, о томе да ли задатке које рачунари могу да обављају заправо они треба да раде, с обзиром на разлику између рачунара и људи, и између квантитативног израчунавања и квалитативног вредносног просуђивања.[204]

Економисти су често истицали ризике од отпуштања услед деловања вештачке интелигенције и спекулисали о незапослености уколико не постоји адекватна социјална политика за пуну запосленост.[205]

У прошлости, технологија је имала тенденцију да повећава, а не да смањује укупну запосленост, али економисти признају да смо „на неистраженој територији“ са вештачком интелигенцијом.[206][205] Економска истраживања су показала неслагање око тога да ли ће све већа употреба робота и вештачке интелигенције изазвати значајно повећање дугорочне незапослености, али се генерално слажу да би то могло бити нето корисно ако се прерасподели повећање продуктивности.[207] Процене ризика варирају; на пример, током 2010-их, Мајкл Озборн и Карл Бенедикт Фреј су проценили да је 47% радних места у САД изложено „високом ризику” од потенцијалне аутоматизације, док је један OECD извештај класификовао само 9% послова у САД као „високи ризик”.[м][209] Методологија спекулисања о будућим нивоима запослености је критикована по основи недостатка доказног темеља и због имплицирања да технологија, а не социјална политика, ствара незапосленост, за разлику од отпуштања.[205]

У контасту са претходним таласима аутоматизације, многи послови средње класе могу бити елиминисани вештачком интелигенцијом; The Economist је 2015. године навео да је „забринутост да би вештачка интелигенција могла да уради пословима белих оковратника оно што је парна енергија учинила онима са плавим оковратницима током индустријске револуције“ „вредно озбиљно разматрања“.[210] Екстремно ризични послови се крећу од правних помоћника до кувара брзе хране, док ће потражња вероватно порасти за професијама везаним за негу, од личне здравствене заштите до свештенства.[211]

У априлу 2023. објављено је да је 70% послова за кинеске илустраторе видео игрица елиминисано генеративном вештачком интелигенцијом.[212][213]

Егзистенцијални ризик

[уреди | уреди извор]

Тврдило се да ће вештачка интелигенција постати толико моћна да би човечанство могло неповратно изгубити контролу над њом. Ово би, како је изјавио физичар Стивен Хокинг, могло да „доведе до краја људске расе“.[214] Овај сценарио је уобичајен у научној фантастици, када компјутер или робот изненада развију „самосвест“ (или „свесност“) налик човеку и постану злонамерни.[н] Ови сценарији научне фантастике су обмањујући на неколико начина.

Прво, вештачка интелигенција не захтева „свесност” налик људској да би била егзистенцијални ризик. Савременим програмима вештачке интелигенције дају се специфични циљеви и они користе учење и интелигенцију да би их постигли. Филозоф Ник Бостром је тврдио да ако неко зада скоро било који циљ довољно моћној вештачкој интелигенцији, она може изабрати да уништи човечанство да би то постигла (користио је пример менаџера фабрике спајалица).[216] Стјуарт Расел даје пример кућног робота који покушава да пронађе начин да убије свог власника како би спречио да буде искључен, резонујући да „не можеш донети кафу ако си мртав.“[217] Да би било безбедна за човечанство, суперинтелигенција би морала да буде истински усклађена са моралом и вредностима човечанства како би била „у основи на нашој страни“.[218]

Друго, Јувал Ноа Харари тврди да вештачкој интелигенцији није потребно тело робота или физичка контрола да би представљала егзистенцијални ризик. Есенцијални делови цивилизације нису физички. Ствари као што су идеологије, закон, [влада], новац и економија су говорне конструкције; постоје јер постоје приче у које верују милијарде људи. Тренутна преваленција дезинформација сугерише да би вештачка интелигенција могла да користи језик да убеди људе да верују у било шта, чак и да предузму акције које су деструктивне.[219]

Мишљења међу стручњацима и инсајдерима из индустрије нису јединствена, при чему постоје знатне фракције које су забринуте и као и оне које нису забринуте због ризика од евентуалне суперинтелигентне вештачке интелигенције.[220] Личности као што су Стивен Хокинг, Бил Гејтс и Елон Маск изразиле су забринутост због егзистенцијалног ризика од вештачке интелигенције.[221]

Почетком 2010-их, стручњаци су тврдили да су ризици у сувише удаљеној будућности да би оправдали истраживање или да ће људи бити вредни из перспективе суперинтелигентне машине.[222] Међутим, након 2016. године, проучавање садашњих и будућих ризика и могућих решења постало је озбиљна област истраживања.[223]

Пионири вештачке интелигенције, као што су Феј-Феј Ли, Џофри Хинтон, Јошуа Бенџо, Синтија Брезил, Рана ел Калиоуби, Демис Хасабис, Џој Буоламвини и Сам Олтман, изразили су забринутост због ризика од вештачке интелигенције. Године 2023, многи водећи стручњаци за вештачку интелигенцију издали су заједничку изјаву да би „ублажавање ризика од изумирања од вештачке интелигенције требало да буде глобални приоритет заједно са другим ризицима на друштвеном нивоу као што су пандемије и нуклеарни рат“.[224]

Други истраживачи су, међутим, говорили у прилог мање дистопијског гледишта. Пионир вештачке интелигенције Јирген Шмидубер није потписао заједничку изјаву, наглашавајући да се у 95% свих случајева истраживање вештачке интелигенције односи на настојање да „људски животи буду дужи, здравији и лакши“.[225] Док алати који се сада користе за побољшање живота исто тако могу да се користе у лоше сврхе, „они такође могу да се користе као негативни чиниоци.“[226][227] Ендру Нг је такође тврдио да је „грешка је наседати на гласине о вештачкој интелигенцији — и да ће регулатори који то чине имати само користи од стечених интереса."[228] Јан Лекан „исмијава дистопијске сценарије својих пандана препуне дезинформација, па чак и евентуално изумирање човечанства”.[229]

Ограничавање вештачке интелигенције

[уреди | уреди извор]

Могуће опције за ограничавање вештачке интелигенције укључују: коришћење уграђене етике или уставне вештачке интелигенције где компаније или владе могу да уносе прописе, ограничавање високог нивоа рачунарске моћи у обуци, ограничавање могућности прераде сопствене кодне базе, ограничавање одређених техника вештачке интелигенције, али не у фази обуке, отворен код (транспарентност) у односу на власнички код (могао би бити у већој мери ограничен), резервни модел са редундантношћу, ограничавање безбедности, приватности и ауторских права, ограничавање или контрола меморије, праћење у реалном времену, анализа ризика, искључивање у хитним случајевима, ригорозна симулација и тестирање, сертификација модела, процена познатих рањивости, ограничавање материјала за обуку, ограничавање приступа интернету, издавање услова коришћења.

Етичке машине и усклађивање

[уреди | уреди извор]

Пријатељска вештачка интелигенција су машине које су дизајниране од почетка да минимизирају ризике и да доносе одлуке од користи људима. Елизер Јадковски, који је сковао термин, тврди да развој пријатељске вештачке интелигенције треба да буде виши приоритет истраживања: то може захтевати велика улагања и мора бити окончано пре него што вештачка интелигенција постане егзистенцијални ризик.[230]

Машине са интелигенцијом имају потенцијал да искористе своју интелигенцију за доношење етичких одлука. Област машинске етике обезбеђује машинама етичке принципе и процедуре за решавање етичких дилема.[231] Област машинске етике се такође назива рачунарска моралност,[231] и основана је на AAAI симпозијуму 2005. године.[232]

Други приступи укључују „вештачке моралне агенте” Вендела Валаха[233] и три принципа Стјуарта Џ. Расела за развој доказано корисних машина.[234]

Пројекти вештачке интелигенције могу да се тестирају по основи њихове етичке прихватљивости током дизајнирања, развоја и имплементације система вештачке интелигенције. Оквир вештачке интелигенције као што је Пазите и поступајте оквир који садржи SUM вредности – који је развио Алан Тјурингов институт тестира пројекте у четири главне области:[235][236]

  • Поштовање достојанство појединачних људи
  • Повезивање са другим људима искрено, отворено и инклузивно
  • Брига за добробит свих
  • Заштита друштвених вредности, правде и јавног интереса

Остали напреци у етичким оквирима укључују оне о којима је одлучено током Асиломар конференције, Монтреалску декларацију за одговорну вештачку интелигенцију и иницијативу IEEE за етику аутономних система, између осталог;[237] међутим, ови принципи не пролазе без критике, посебно у погледу људски одабраних доприноса овим оквирима.[238]

Промовисање благостања људи и заједница на које ове технологије утичу захтева разматрање друштвених и етичких импликација у свим фазама дизајна, развоја и имплементације система вештачке интелигенције, као и сарадњу између радних улога као што су научници података, менаџери производа, инжењери података, доменски стручњаци и менаџери испоруке.[239]

Регулација

[уреди | уреди извор]
Самит о безбедности вештачке интелигенције
Први глобални самит о безбедности вештачке интелигенције одржан је 2023. године са декларацијом која позива на међународну сарадњу.

Регулисање вештачке интелигенције је развој политика јавног сектора и закона за промовисање и регулисање вештачке интелигенције; стога је везано за ширу регулацију алгоритама.[240] Регулаторни и политички пејзаж за вештачку интелигенцију је ново питање у јурисдикцијама широм света.[241] Према станфордском Индексу вештачке интелигенције, годишњи број закона у вези са вештачком интелигенцијом усвојених у 127 разматраних земаља скочио је са једног усвојеног у 2016. на 37 усвојених само у 2022. години.[242][243] Између 2016. и 2020. године, више од 30 земаља усвојило је наменске стратегије за вештачку интелигенцију.[244] Већина држава чланица ЕУ објавила је националне стратегије вештачке интелигенције, као и Канада, Кина, Индија, Јапан, Маурицијус, Руска Федерација, Саудијска Арабија, Уједињени Арапски Емирати, САД и Вијетнам. Други су били у процесу израде сопствене стратегије вештачке интелигенције, укључујући Бангладеш, Малезију и Тунис.[244] Глобално партнерство за вештачку интелигенцију покренуто је у јуну 2020. године, наводећи потребу да се вештачка интелигенција развија у складу са људским правима и демократским вредностима, како би се обезбедило поверење јавности и поуздање у технологију.[244] Хенри Кисинџер, Ерик Шмит и Данијел Хатенлохер објавили су заједничку изјаву у новембру 2021. позивајући на владину комисију која би регулисала вештачку интелигенцију.[245] У 2023. години, лидери OpenAI објавили су препоруке за управљање суперинтелигенцијом, за коју верују да би се могло формирати за мање од 10 година.[246] Уједињене нације су 2023. године такође покренуле саветодавно тело за давање препорука о управљању вештачком интелигенцијом; тело се састоји од руководилаца технолошких компанија, владиних званичника и академика.[247]

У истраживању Ипсоса из 2022. године, ставови према вештачкој интелигенцији су се веома разликовали од земље до земље; 78% кинеских грађана, али само 35% Американаца, сложило се да „производи и услуге који користе вештачку интелигенцију имају више предности него недостатака“.[242] Анкета Ројтерс/Ипсоса из 2023. показала је да се 61% Американаца слаже, а 22% се не слаже, да вештачка интелигенција представља ризик за човечанство.[248] У анкети Фок Њуза из 2023. године, 35% Американаца мислило је да је то „веома важно”, а додатних 41% мислило је да је „донекле важно” да савезна влада регулише вештачку интелигенцију, наспрам 13% који је одговорило „не баш важно” и 8% је одговорило „уопште није важно”.[249][250]

У новембру 2023, одржан је први глобални Самит о безбедности вештачке интелигенције у Блечли парку у Великој Британији да би се разговарало о краткорочним и даљим ризицима вештачке интелигенције и могућности обавезних и добровољних регулаторних оквира.[251] Сет од 28 земаља, укључујући Сједињене Државе, Кину и Европску унију, издао је декларацију на почетку самита, позивајући на међународну сарадњу у управљању изазовима и ризицима вештачке интелигенције.[252][253]

Историја

[уреди | уреди извор]

Историјски преглед развоја

[уреди | уреди извор]

Појам вештачка интелигенција (ВИ), настаје лета 1956. године у Дартмуду, Хановер (САД), на скупу истраживача заинтересованих за теме интелигенције, неуронских мрежа и теорије аутомата. Скуп је организовао Џон Макарти, уједно са Клодом Шеноном, Марвином Минским и Н. Рочестером. На скупу су такође учествовали Т. Мур (Принстон), А. Семјуел (IBM), Р. Соломоноф и О. Селфриџ (МИТ), као и А. Невил, Х. Сајмон (Carnegie Tech, данас Карнеги Мелон универзитет). На скупу су постављене основе области вештачке интелигенције и трасиран пут за њен даљи развој.

Раније, 1950. године, Алан Тјуринг је објавио један чланак у ревији Мајнд ((Mind)), под насловом „Рачунари и интелигенција“, где говори о концепту вештачке интелигенције и поставља основе једне врсте пробе, преко које би се утврђивало да ли се одређени рачунарски систем понаша у складу са оним што се подразумева под вештачком интелигенцијом, или не. Касније ће та врста пробе добити име, Тјурингов тест.

Скуп је последица првих радова у области. Невил и Сајмон су на њему представили свој програм за аутоматско резоновање, Логик Теорист (који је направио сензацију). Данас се сматра да су концепт вештачке интелигенције поставили В. Мекулок и M. Питс, 1943. године, у раду у ком се представља модел вештачких неурона на бази три извора: спознаја о физиологији и функционисању можданих неурона, исказна логика Расела и Вајтехеда, и Тјурингова компутациона теорија. Неколико година касније створен је први неурални рачунар SNARC. Заслужни за подухват су студенти Принстона, Марвин Мински и Д. Едмонс, 1951. године. Негде из исте епохе су и први програми за шах, чији су аутори Шенон и Тјуринг.

Иако се ова истраживања сматрају зачетком вештачке интелигенције, постоје многа друга који су битно утицала на развој ове области. Нека потичу из области као што су филозофија (први покушаји формализације резоновања су силогизми грчког филозофа Аристотела), математика (теорија одлучивања и теорија пробабилитета се примењују у многим данашњим системима), или психологија (која је заједно са вештачком интелигенцијом формирала област когнитивне науке).

У годинама које следе скуп у Дартмуду постижу се значајни напреци. Конструишу се програми који решавају различите проблеме. На пример, студенти Марвина Минског су крајем шездесетих година имплементирати програм Analogy, који је оспособљен за решавање геометријских проблема, сличним онима који се јављају у тестовима интелигенције, и програм Студент, који решава алгебарске проблеме написане на енглеском језику. Невил и Сајмон ће развити General Problem Solver (ГПС), који покушава да имитира људско резоновање. Семјуел је написао програме за игру сличну дами, који су били оспособљени за учење те игре. Макарти, који је у међувремену отишао на МИТ, имплементира програмски језик Лисп, 1958. године. Исте године је написао чланак, Programs With Common Sense, где описује један хипотетички програм који се сматра првим комплетним системом вештачке интелигенције.

Ова серија успеха се ломи средином шездесетих година и превише оптимистичка предвиђања из ранијих година се фрустрирају. До тада имплементирани системи су функционисали у ограниченим доменима, познатим као микросветови (microworlds). Трансформација која би омогућила њихову примену у стварним окружењима није била тако лако изводљива, упркос очекивањима многих истраживача. По Раселу и Норивигу, постоје три фундаментална фактора који су то онемогућили:

  1. Многи дизајнирани системи нису поседовали сазнање о окружењу примене, или је имплементирано сазнање било врло ниског нивоа и састојало се од неких једноставних синтактичких манипулација.
  2. Многи проблеми које су покушавали решити су били у суштини нерешиви, боље речено, док је количина сазнања била мала и ограничена решење је било могуће, али када би дошло до пораста обима сазнања, проблеми постају нерешиви.
  3. Неке од основних структура које су се користиле за стварање одређеног интелигентног понашања су биле веома ограничене.

До тог момента решавање проблема је било засновано на једном механизму опште претраге преко којег се покушавају повезати, корак по корак, елементарне основе размишљања да би се дошло до коначног решења. Наравно такав приступ подразумева и велике издатке, те да би се смањили, развијају се први алгоритми за потребе контролисања трошкова истраживања. На пример, Едсхер Дајкстра 1959. године дизајнира један метод за стабилизацију издатака, Невил и Ернст, 1965. године развијају концепт хеуристичке претраге и Харт, Нилсон и Рафаел, алгоритам А. У исто време, у вези програма за игре, дефинише се претрага алфа-бета. Творац идеје је иначе био Макарти, 1956. године, а касније ју је користио Невил, 1958. године.

Важност схватања сазнања у контексту домена и примене, као и грађе структуре, којој би било лако приступати, довела је до детаљнијих студија метода представљања сазнања. Између осталих, дефинисале су се семантичке мреже (дефинисане почетком шездесетих година, од стране Килијана) и окружења (које је дефинисао Мински 1975. године). У истом периоду почињу да се користе одређене врсте логике за представљање сазнања.

Паралелно с тим, током истих година, настављају се истраживања за стварање система за игру чекерс, за који је заслужан Самуел, оријентисан на имплементацију неке врсте методе учења. Е. Б. Хунт, Ј. Мартин и П. Т. Стоне, 1969. године конструишу хијерархијску структуру одлука (ради класификације), коју је већ идејно поставио Шенон, 1949. године. Килијан, 1979, представља метод IDZ који треба да послужи као основа за конструкцију такве структуре. С друге стране, П. Винстон, 1979. године, развија властити програм за учење описа сложених објеката, и Т. Мичел, 1977, развија тзв. простор верзија. Касније, средином осамдесетих, поновна примена методе учења на неуралне мреже тзв., backpropagation, доводи до поновног оживљавања ове области. Конструкција апликација за стварна окружења, довела је до потребе разматрања аспеката као што су неизвесност, или непрецизност (који се такође јављају приликом решавања проблема у играма). За решавање ових проблема примењиване су пробабилистичке методе (теорија пробабилитета, или пробабилистичке мреже) и развијали други формализми као дифузни скупови (дефинисани од Л. Задеха 1965. године), или Демпстер-Шаферова теорија (творац теорије је А. Демпстер, 1968, са значајним доприносом Г. Шафера 1976. године). На основу ових истраживања, почев од осамдесетих година, конструишу се први комерцијални системи вештачке интелигенције, углавном тзв. експертски системи.

Савремени проблеми који се настоје решити у истраживањима вештачке интелигенције, везани су за настојања конструисања кооперативних система на бази агената, укључујући системе за управљање подацима, утврђивање редоследа обраде података и покушаје имитације природног језика, између осталих.

Историја вештачке интелигенције

[уреди | уреди извор]

Проучавање механичког или „формалног” расуђивања почело је са филозофима и математичарима у антици. Проучавање логике довело је директно до теорије рачунања Алана Тјуринга, која је сугерисала да машина, мешањем симбола једноставних као што су „0“ и „1“, може да симулира математичку дедукцију и формално резоновање, које је познато као Черч-Тјурингова теза.[254] Ово, заједно са истовременим открићима у кибернетици и теорији информација, навело је истраживаче да размотре могућност изградње „електронског мозга“.[њ][256]

Алан Тјуринг је размишљао о машинској интелигенцији бар од 1941. године, када је дистрибуирао рад о машинској интелигенцији који би могао бити најранији рад у области вештачке интелигенције – иако је сада изгубљен.[8] Први доступни рад који је генерално препознат као „вештачка интелигенција“ био је Макалуков и Питсов дизајн за Тјуринг-комплетне „вештачке неуроне“ из 1943. године – први математички модел неуронске мреже.[257] На рад је утицао Тјурингов ранији рад „О израчунљивим бројевима“ из 1936. који је користио сличне логичке „неуроне“ са два стања, али је био први који их је применио на неуронске функције.[8]

Алан Туринг је током свог живота користио термин „машинска интелигенција“ која је касније често називана „вештачком интелигенцијом“ након његове смрти 1954. године. Тјуринг је 1950. године објавио најпознатији од својих радова „Рачунарска машинерија и интелигенција“, у које је представио свој концепт онога што је сада познато као Тјурингов тест широј јавности. Затим су уследила три Тјурингова радио-емисија о вештачкој интелигенцији, предавања: „Интелигентна машинерија, јеретичка теорија“, „Могу ли дигитални рачунари да мисле“? и панел дискусија „Може ли се за аутоматске рачунске машине рећи да мисле“. До 1956. године компјутерска интелигенција се у Британији активно изучавала више од једне деценије; тамо су написани најранији програми вештачке интелигенције током 1951–1952.[8]

Године 1951, коришћењем компјутера Феранти Марк 1 Универзитета у Манчестеру, написани су програми за игре дама и шах где је особа могла да игра против компјутера.[258] Област америчког истраживања вештачке интелигенције основана је на радионици на Дартмут колеџу 1956. године.[о][9] Полазници су постали лидери истраживања вештачке интелигенције током 1960-их.[п] Они и њихови студенти производили су програме које је штампа описала као „зачуђујуће”:[р] компјутери су учили стратегије игре дама, решавали проблеме са речима у алгебри, доказивали логичке теореме и говорили енглески.[с][10] Лабораторије за вештачку интелигенцију су основане на бројним британским и америчким универзитетима током касних 1950-их и раних 1960-их.[8]

Они су, међутим, потценили тежину проблема.[т] Америчка и британска влада прекинуле су експлоративна истраживања као одговор на критику сер Џејмса Лајхила[263] и стални притисак америчког Конгреса да финансира продуктивније пројекте. Минскијева и Папертова књига Перцептрони је схваћена као доказ да вештачке неуронске мреже никада неће бити корисне за решавање задатака у стварном свету, чиме се потпуно дискредитује приступ.[264] Уследила је „зима вештачке интелигенције“, период када је добијање средстава за пројекте вештачке интелигенције било тешко.[12]

Почетком 1980-их, истраживање вештачке интелигенције је оживело комерцијалним успехом експертских система,[265] облика програма вештачке интелигенције који је симулирао знање и аналитичке вештине људских стручњака. До 1985. године тржиште вештачке интелигенције достигло је преко милијарду долара. Истовремено, јапански компјутерски пројекат пете генерације инспирисао је владе САД и Велике Британије да поврате финансирање академских истраживања.[11] Међутим, почевши од колапса тржишта Лисп машина 1987. године, вештачка интелигенција је поново пала на лош глас и почела је друга, дуготрајнија зима.[13]

Многи истраживачи су почели да сумњају да ће садашње праксе бити у стању да имитирају све процесе људске спознаје, посебно перцепцију, роботику, учење и препознавање образаца.[266] Известан број истраживача је почео да истражује „подсимболичке“ приступе.[267] Истраживачи роботике, као што је Родни Брукс, одбацили су „репрезентацију“ уопштено и фокусирали се директно на инжењерске машине које се крећу и преживљавају.[ћ] Џудиа Перл, Лофти Задех и други развили су методе које су се бавиле непотпуним и несигурним информацијама правећи разборита нагађања, а не прецизном логиком.[91][272] Али најважнији развој је био оживљавање „конекционизма“, укључујући истраживање неуронских мрежа, од стране Џефрија Хинтона и других.[273] Јан Лекан је 1990. године успешно показао да конволуцијске неуронске мреже могу да препознају руком писане цифре, што је прва од многих успешних примена неуронских мрежа.[274]

Вештачка интелигенција је постепено обнављала своју репутацију крајем 1990-их и почетком 21. века коришћењем формалних математичких метода и проналажењем специфичних решења за специфичне проблеме. Овај „уски“ и „формални“ фокус омогућио је истраживачима да произведу проверљиве резултате и сарађују са другим областима (као што су статистика, економија и математика).[275] До 2000. решења која су развили истраживачи вештачке интелигенције била су у широкој употреби, иако су током 1990-их ретко описивана као „вештачка интелигенција“.[276]

Неколико академских истраживача је постало забринуто да вештачка интелигенција више не следи првобитни циљ стварања свестраних, потпуно интелигентних машина. Почевши од 2002. године, основали су подобласт вештачке опште интелигенције (или „AGI“), која је до 2010-их имала неколико добро финансираних институција.[17]

Дубоко учење је почело да доминира индустријским мерилима 2012. године и усвојено је у целој области.[14] За многе специфичне задатке, друге методе су напуштене.[у] Успех дубоког учења био је заснован и на побољшањима хардвера (бржи рачунари,[278] јединице за обраду графике, рачунарство у облаку[279]) и приступ великим количинама података[280] (укључујући куриране скупове података,[279] као што је ImageNet).

Успех дубоког учења довео је до огромног повећања интересовања и финансирања за вештачку интелигенцију.[ф] Количина истраживања машинског учења (мерена укупним бројем публикација) порасла је за 50% у годинама 2015–2019,[244] а WIPO је известио да је вештачка интелигенција била најплоднија технологија у настајању у смислу броја пријава патената и одобрених патената.[281] Према 'ВИ Impacts', око 50 милијарди долара годишње је уложено у вештачку интелигенцију око 2022. године само у САД и око 20% нових дипломаца из области рачунарских наука у САД специјализирало се за ту специјалност;[282] око 800.000 радних места везаних за вештачку интелигенцију настало је током 2022. у САД.[283] Велика већина напретка се догодила у Сједињеним Државама, са њиховим компанијама, универзитетима и истраживачким лабораторијама које воде истраживања вештачке интелигенције.[16]

У 2016. години, питања правичности и злоупотребе технологије су катапултирана у централно место на конференцијама о машинском учењу, учесталост публикација се знатно повећала, финансирање је постало доступно, а многи истраживачи су поново фокусирали своје каријере на ова питања. Проблем усклађивања постао је озбиљно поље академских студија.[223]

Филозофија

[уреди | уреди извор]

Дефинисање вештачке интелигенције

[уреди | уреди извор]

Алан Тјуринг је 1950. године написао: „Предлажем да размотримо питање 'могу ли машине да мисле'?“[284] Он је саветовао да се питање промени са да ли машина „мисли“, на „да ли је могуће или не да машине показују интелигентно понашање“.[284] Он је осмислио Тјурингов тест, који мери способност машине да симулира људски разговор.[285] Пошто можемо само да посматрамо понашање машине, није битно да ли она „заправо“ размишља или дословно има „ум“. Тјуринг напомиње да не можемо да одредимо ове ствари о другим људима,[х] али да „уобичајено да имамо љубазну конвенцију за коју сви мисле“.[286]

Расел и Норвиг се слажу са Тјурингом да вештачка интелигенција мора бити дефинисана у смислу „деловања“, а не „размишљања“.[287] Међутим, они су критични јер тест упоређује машине са људима. „Текстови ваздухопловног инжењерства“, написали су, „не дефинишу циљ своје области као прављење „машина које лете до те мере као голубови да могу да заварају друге голубове. Творац вештачке интелигенције Џон Макарти се сложио, пишући да „Вештачка интелигенција није, по дефиницији, симулација људске интелигенције“.[288]

Макарти дефинише интелигенцију као „компјутерски део способности да се постигну циљеви у свету“.[289] Други оснивач вештачке интелигенције, Марвин Мински, на је сличан начин дефинише као „способност решавања тешких проблема“.[290] Ове дефиниције посматрају интелигенцију у смислу добро дефинисаних проблема са добро дефинисаним решењима, где су тежина проблема и перформансе програма директне мере „интелигенције” машине - и није потребна никаква друга филозофска расправа, или можда не би била ни могућа.

Још једну дефиницију је усвојио Гугл,[291] главни практичар у области вештачке интелигенције. Ова дефиниција предвиђа способност система да синтетише информације као манифестацију интелигенције, слично као што је дефинисано у биолошкој интелигенцији.

Евалуација приступа вештачке интелигенције

[уреди | уреди извор]

Ниједна успостављена обједињујућа теорија или парадигма није предводила истраживање вештачке интелигенције током већег дела њене историје.[ц] Невиђени успех статистичког машинског учења 2010-их засјенио је све друге приступе (толико да неки извори, посебно у пословном свету, користе термин „вештачка интелигенција” да значи „машинско учење са неуронским мрежама”). Овај приступ је углавном подсимболички, мекан и узак (види испод). Критичари тврде да ће будуће генерације истраживача вештачке интелигенције можда морати поново да размотре ова питања.

Симболичка вештачка интелигенција и његове границе

[уреди | уреди извор]

Симболичка вештачка интелигенција (или „GOFAI“)[293] је симулирала свесно резоновање на високом нивоу које људи користе када решавају загонетке, изражавају правно резоновање и решавају математичке проблеме. Она је била веома успешна на „интелигентним” задацима као што су алгебра или тестови интелигенције. Током 1960-их, Њуел и Сајмон су предложили хипотезу о системима физичких симбола: „Физички систем симбола има неопходна и довољна средства опште интелигентне акције.“[294]

Међутим, симболички приступ није успео у многим задацима које људи лако решавају, као што су учење, препознавање предмета или здраворазумско размишљање. Моравецов парадокс је откриће да су „интелигентни“ задаци високог нивоа били лаки за вештачку интелигенцију, док су „инстинктивни“ задаци ниског нивоа били изузетно тешки.[295] Филозоф Хјуберт Драјфус је од 1960-их тврдио да људска стручност зависи од несвесног инстинкта, а не од свесне манипулације симболима, и од „осећаја“ за ситуацију, а не од експлицитног симболичког знања.[296] Иако су његови аргументи били исмевани и игнорисани када су први пут представљени, на крају су се истраживања вештачке интелигенције сложила са њим.[ч][22]

Проблем није решен: подсимболичко резоновање може направити многе од истих несагледивих грешака које чини људска интуиција, као што је алгоритамска пристрасност.[298][299][300] Критичари као што је Ноам Чомски тврде да ће наставак истраживања симболичке вештачке интелигенције и даље бити неопходан да би се остварила општа интелигенција,[301][302] делом зато што је подсимболична вештачка интелигенција вид удаљавања од објашњиве вештачке интелигенције: може бити тешко или немогуће разумети зашто савремени статистички програм вештачке интелигенције донео дату одлуку.[303][304][305][306] Ново поље неуро-симболичке вештачке интелигенције настоји да премости ова два приступа.[307][308][309]

Уредно наспрам неуредног

[уреди | уреди извор]

„Уредни“ се надају да је интелигентно понашање описано коришћењем једноставних, елегантних принципа (као што су логика, оптимизација или неуронске мреже). „Неуредни” очекују да то нужно захтева решавање великог броја неповезаних проблема. Уредни бране своје програме теоретском строгошћу, а опозиција се углавном ослања на инкрементално тестирање да би видели да ли раде. О овом питању се активно расправљало током 1970-их и 1980-их,[310] али је на крају све то виђено као ирелевантно. Модерна вештачка интелигенција има елементе оба приступа.

Меко наспрам тврдог рачунарства

[уреди | уреди извор]

Проналажење доказано исправног или оптималног решења је неоствариво за многе важне проблеме.[21] Меко рачунарство је скуп техника, укључујући генетске алгоритме,[311][312] расплинуту логику[313][314][315] и неуронске мреже, које су толерантне на непрецизност, неизвесност, делимичну истину и апроксимацију.[316][317][318][319][320] Меко рачунарство је уведено током касних 1980-их и најуспешнији програми вештачке интелигенције у 21. веку су примери меког рачунарства са неуронским мрежама.

Уска у односу на општу вештачку интелигенцију

[уреди | уреди извор]

Истраживачи вештачке интелигенције су подељени око тога да ли да следе циљеве опште вештачке интелигенције и суперинтелигенције директно,[321][322][323][324] или да реше што је могуће више специфичних проблема (уска вештачка интелигенција[325][326][327][328][329]) у нади да ће ова решења индиректно довести до дугорочних циљева ове области.[330][331] Општу интелигенцију је тешко дефинисати и тешко је измерити, и савремена вештачка интелигенција је имала више проверљивих успеха при фокусирању на специфичне проблеме са специфичним решењима. Експериментална подобласт вештачке опште интелигенције проучава искључиво ову област.[332][333]

Машинска свест, разумевање и ум

[уреди | уреди извор]

Филозофија ума не зна да ли машина може имати ум, свест и ментална стања, у истом смислу као и људска бића. Ово питање разматра унутрашња искуства машине, а не њено спољашње понашање. Главни ток истраживања вештачке интелигенције сматра ово питање ирелевантним, јер не утиче на циљеве ове области: да се направе машине које могу да решавају проблеме користећи интелигенцију. Расел и Норвиг додају да „додатни пројекат освешћивања машине на начин на који људи то попримају није онај за који смо опремљени да преузмемо.“[334] Међутим, питање је постало централно за филозофију ума. То је такође типично централно питање о вештачкој интелигенцији у фикцији.[335][336][337][338][339]

Дејвид Чалмерс је идентификовао два проблема у разумевању ума, које је назвао „тешким“ и „лаким“ проблемима свести.[340] Лак проблем је разумети како мозак обрађује сигнале, прави планове и контролише понашање. Тежак проблем је објаснити како се ово осећа или зашто би уопште требало да се осећа као било шта, под претпоставком да смо у праву када мислимо да се то заиста осећа као нешто (Денетов илузионизам свести каже да је ово илузија). Људску обраду информација је лако објаснити, међутим, људско субјективно искуство је тешко објаснити. На пример, лако је замислити далтонисту који је научио да идентификује који су објекти у њиховом видном пољу црвени, али није јасно шта би било потребно да би особа знала како изгледа црвена.[341]

Компјутеризам и функционализам

[уреди | уреди извор]

Компјутеризам је став у филозофији ума да је људски ум систем за обраду информација и да је размишљање облик рачунарства. Компјутеризам тврди да је однос између ума и тела сличан или идентичан односу између софтвера и хардвера и стога може бити решење за проблем ума и тела. Ова филозофска позиција је инспирисана радом истраживача вештачке интелигенције и когнитивних научника током 1960-их, а првобитно су је предложили филозофи Џери Фодор и Хилари Патнам.[342]

Филозоф Џон Сирл је ову позицију окарактерисао као „јаку вештачку интелигенцију“: „Одговарајуће програмирани рачунар са правим улазима и излазима би стога имао ум у потпуно истом смислу као и људска бића“.[џ] Сирл супротставља овој тврдњи свој аргумент кинеске собе, који покушава да покаже да, чак и ако машина савршено симулира људско понашање, још увек нема разлога да се претпостави да и она има ум.[346]

Социјала вештачке интелигенције и права

[уреди | уреди извор]

Тешко је или немогуће поуздано проценити да ли је напредна вештачка интелигенција осетна (има способност да осећа), и ако јесте, у ком ступњу.[347] Међутим ако постоји значајна шанса да дата машина може да осети и пати, онда може имати право на одређена права или мере заштите добробити, слично животињама.[348][349] Разумност (скуп капацитета повезаних са високом интелигенцијом, као што је разлучивање или самосвест) може да пружи још једну моралну основу за права вештачке интелигенције.[348] Права робота се такође понекад предлажу као практичан начин интеграције аутономних агената у друштво.[350]

Европска унија је 2017. разматрала давање „електронске личности“ неким од најспособнијих система вештачке интелигенције. Слично правном статусу компанија, она би имала права, али и одговорности.[351] Критичари су 2018. тврдили да би давање права системима вештачке интелигенције умањило важност људских права и да би се законодавство требало фокусирати на потребе корисника, а не на спекулативне футуристичке сценарије. Такође су приметили да роботима недостаје аутономија да сами учествују у друштву.[352][353]

Напредак у вештачкој интелигенцији повећао је интересовање за ову тему. Заговорници благостања и права вештачке интелигенције често тврде да би осећај вештачке интелигенције, ако се појави, било посебно лако порећи. Они упозоравају да би ово могла бити морална слепа тачка аналогна ропству или фабричкој пољопривреди, што би могло довести до патње великих размера ако се створи разумна вештачка интелигенција и неопрезно искоришћава.[349][348]

Будућност

[уреди | уреди извор]

Суперинтелигенција и сингуларност

[уреди | уреди извор]

Суперинтелигенција је хипотетички агент који би поседовао интелигенцију која далеко надмашује интелигенцију најсјајнијег и најдаровитијег људског ума.[331]

Ако истраживање опште вештачке интелигенције произведе довољно интелигентан софтвер, он би могао да се репрограмира и побољша себе. Побољшани софтвер би био још бољи у побољшању самог себе, што би довело до онога што је И. Џ. Гуд назвао „експлозијом интелигенције“, а Вернор Винџ је назвао „сингуларитетом“.[354]

Међутим, технологије не могу да се побољшавају експоненцијално бесконачно и обично прате криву у облику слова S, успоравајући се када достигну физичке границе онога што технологија може да уради.[355]

Трансхуманизам

[уреди | уреди извор]

Дизајнер робота Ханс Моравец, кибернетичар Кевин Ворвик и проналазач Реј Курцвајл су предвидели да ће се људи и машине у будућности спојити у киборге који су способнији и моћнији од било ког ентитета засебно. Ова идеја, названа трансхуманизам, има корене у делу Олдоуса Хакслија и Роберта Етингера.[356]

Едвард Фредкин тврди да је „вештачка интелигенција следећа фаза у еволуцији“, идеја коју је први пут предложио Семјуел Батлеров рад „Дарвин међу машинама[357] још 1863. године, а проширио је Џорџ Дајсон у својој истоименој књизи 1998. године.[358]

У фикцији

[уреди | уреди извор]
Саму реч „робот“ сковао је Карел Чапек у својој драми Р.У.Р. из 1921. године,[359] наслов који означава „Росумовe универзални роботe“.[360][361][362][360][363]

Вештачка бића која су способна да размишљају појављивала су се као средства за приповедање још од антике[364] и била су стална тема у научној фантастици.[365]

Уобичајени троп[366][367][368] у овим делима почео је са Мери Шелијевим Франкенштајном, где људска творевина постаје претња својим господарима. Ово укључује дела попут Артур К. Кларкове и Стенли Кјубрикове 2001: Одисеја у свемиру (оба 1968), са ХАЛ 9000, убиственим компјутером задуженим за свемирски брод Discovery One,[369][370][371] као и Терминатор (1984) и Матрикс (1999). Насупрот томе, ретки лојални роботи као што су Горт из Дана када је Земља стала (1951) и Бишоп из Ванземаљаца (1986) мање су истакнути у популарној култури.[372]

Исак Асимов је представио Три закона роботике у многим књигама и причама,[373][374][375][376] а посебно у серији „Мултивак“ о истоименом суперинтелигентном рачунару. Асимовљеви закони се често помињу током лаичких дискусија о машинској етици;[377] док су скоро сви истраживачи вештачке интелигенције упознати са Асимовљевим законима кроз популарну културу, они генерално сматрају да су закони бескорисни из много разлога, од којих је један њихова двосмисленост.[378]

Неколико радова користи вештачку интелигенцију као разлог за суочавање са фундаменталним питањем шта нас чини људима, показујући нам вештачка бића која имају способност да осећају, а самим тим и да пате. Ово се појављује у Р.У.Р. Карела Чапека, филмовима Вештачка интелигенција и Екс машина, као и роману Да ли Андроиди сањају електричне овце?, Филипа К. Дика. Дик разматра идеју да је наше разумевање људске субјективности измењено технологијом створеном вештачком интелигенцијом.[379]

Занимљивости

[уреди | уреди извор]

На конкурсу за избор најбоље нове српске речи одржаном 2024. године у организацији сајта „Мала библиотека” из Лондона, на списку од 130 речи које су ушле у први ужи избор на основу суда стручног жирија, нашла се и кованица предложена као замена за синтагму „вештачка интелигенција” — реч „умотроника”.[380]

Напомене

[уреди | уреди извор]
  1. ^ а б Ова листа интелигентних особина заснована је на темама које покривају главни ВИ уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  2. ^ а б Ова листа алата је заснована на темама које покривају главни AI уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  3. ^ То је један од разлога што су се експертски системи показали неефикасним за прикупљање знања.[36][37]
  4. ^ „Рационални агент“ је општи термин који се користи у економији, филозофији и теоријској вештачкој интелигенцији. Он се може се односити на било шта што усмерава своје понашање на постизање циљева, као што су особа, животиња, корпорација, нација или, у случају вештачке интелигенције, компјутерски програм.
  5. ^ Алан Тјуринг је расправљао о централној важности учења још 1950. године, у свом класичном раду „Рачунарска машина и интелигенција“.[48] Године 1956, на оригиналној Дартмутској ВИ летњој конференцији, Реј Соломоноф је написао извештај о ненадгледаном пробабилистичком машинском учењу: „Машина за индуктивно закључивање”.[49]
  6. ^ Погледајте ВИ зима § Машинско превођење и ALPAC извештај из 1966
  7. ^ У поређењу са симболичком логиком, формално Бајесово закључивање је рачунски скупо. Да би закључивање било прихватљиво, већина запажања мора бити условно независна једно од другог. AdSense користи Бајесову мрежу са преко 300 милиона веза да научи које огласе да приказује.[93]
  8. ^ Максимизација очекивања, један од најпопуларнијих алгоритама у машинском учењу, који омогућава груписање у присуству непознатих латентних варијабли.[95]
  9. ^ Неки облик дубоких неуронских мрежа (без специфичног алгоритма учења) описали су: Алан Тјуринг (1948);[119]] Френк Розенблат(1957);[119] Карл Стајнбух и Роџер Дејвид Џозеф (1961).[120] Дубоке или рекурентне мреже које су научиле (или користиле градијентно спуштање) развили су: Ернст Исинг и Вилхелм Ленц (1925);[121] Оливер Селфриџ (1959);[120] Алексеј Ивахненко и Валентин Лапа (1965);[121] Каору Накано (1977);[122] Шун-Ичи Амари (1972);[122] Џон Џозеф Хопфилд (1982).[122] Бекпропагацију су независно открили: Хенри Џ. Кели (1960);[119] Артур Е. Брисон (1962);[119] Стјуарт Дреифус (1962);[119] Артур Е. Брисон и Ју-Чи Хо (1969);[119] Сепо Линајнма (1970);[123] Пол Вербос (1974).[119] Заправо, пропагација уназад и спуштање градијента су директне примене правила Готфрид Лајбницовог ланчаног правила у калкулусу (1676),[124] и у суштини су идентичне (за један слој) методи најмањих квадрата, коју су независно развили Јохан Карл Фридрих Гаус (1795) и Адријен-Мари Лежандр (1805).[125] Вероватно има много других, које тек треба да открију историчари науке.
  10. ^ Џефри Хинтон је рекао, о свом раду на неуронским мрежама током 1990-их, „наши означени скупови података били су хиљаде пута премали. [и] наши рачунари су били милионима пута преспори.”[126]
  11. ^ Укључујући Џона Клајнберга (Корнел), Сендхила Мулајнатана (Универзитет у Чикагу), Синтију Чулдехову (Карнеги Мелон) и Сама Корбет-Дејвиса (Станфорд)[175]
  12. ^ Мориц Хардт (директор на Институту Макс Планк за интелигентне системе) тврди да је машинско учење „у основи погрешан алат за многе домене, где покушавате да дизајнирате интервенције и механизме који мењају свет“.[180]
  13. ^ Када је закон донет 2018. године, још је садржао форму ове одредбе.
  14. ^ Ово је дефиниција Уједињених нација и укључује исто тако направе као што су нагазне мине.[193]
  15. ^ Види табелу 4; 9% је просек OECD-а и просек САД.[208]
  16. ^ Понекад се назива „робокалипса”.[215]
  17. ^ „Електронски мозак“ је био термин који је штампа користила отприлике у то време.[255]
  18. ^ Даниел Кревиер је написао, „конференција је генерално призната као званични датум рођења нове науке.“[259] Расел и Норвиг су конференцију назвали „почетком вештачке интелигенције“.[257]
  19. ^ Расел и Норвиг су написали „у наредних 20 година овим пољем ће доминирати ови људи и њихови ученици“.[260]
  20. ^ Расел и Норвиг су написали „било је запањујуће кад год би рачунар урадио нешто паметно”.[261]
  21. ^ Описани програми су Артур Самјуелов програм игре даме за IBM 701, Даниел Бобровов STUDENT, Њуелов и Сајмонов Логички теоретичар и Тери Виноградов SHRDLU.
  22. ^ Расел и Норвиг су написали: „у скоро свим случајевима, ови рани системи нису били успешни на тежим проблемима“[262]
  23. ^ Отелотворене приступе вештачкој интелигенцији[268] заступали су Ханс Моравец[269] и Родни Брукс[270] и носили су бројна имена: Nouvelle AI,[270] развојна роботика,[271]
  24. ^ Матео Вонг је написао у Атлантику: „Док су деценијама области рачунарске науке као што су обрада природног језика, компјутерски вид и роботика користиле изузетно различите методе, сада сви користе метод програмирања који се зове „дубоко учење“. Као резултат тога, њихов код и приступи су постали сличнији, а њихови модели се лакше интегришу један у други."[277]
  25. ^ Џек Кларк је написао у Блумбергу: „После пола деценије тихих открића у вештачкој интелигенцији, 2015. је била значајна година. Рачунари су паметнији и уче брже него икад“, и приметио је да је број софтверских пројеката који користе машинско учење у Гуглу повећан са „спорадичне употребе” у 2012. на више од 2.700 пројеката у 2015.[279]
  26. ^ Погледајте Проблем других умова
  27. ^ Нилс Нилсон је 1983. написао: „Једноставно речено, постоји велика неслагања на терену око тога шта је вештачка интелигенција.”[292]
  28. ^ Данијел Кревијер је написао да је „време доказало тачност и проницљивост неких Драјфусових коментара. Да их је формулисао мање агресивно, конструктивне акције које су они предлагали могле су бити предузете много раније“.[297]
  29. ^ Серл је представио ову дефиницију „јаке вештачке интелигенције“ 1999. године.[343] Сирлова оригинална формулација је била „Одговарајуће програмирани рачунар је заиста ум, у смислу да се за компјутере којима су дати одговарајући програмима дословног може рећи да разумеју и имају друга когнитивна стања.“[344] Јаку вештачку интелигенцију су слично дефинисали Расел и Норвиг: „Јака вештачка интелигенција – тврдња да машине које то чине заправо размишљају (за разлику од симулације размишљања).“[345]

Референце

[уреди | уреди извор]
  1. ^ Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4th изд.). Hoboken: Pearson. ISBN 978-0134610993. LCCN 20190474. 
  2. ^ Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (на језику: енглески) (3rd изд.). New Delhi: Tata McGraw Hill India. ISBN 978-0070087705. 
  3. ^ „Artificial Intelligence”. Архивирано из оригинала 21. 02. 2011. г. Приступљено 28. 3. 2013. 
  4. ^ Hu, Krystal (2. 2. 2023). „ChatGPT sets record for fastest-growing user base – analyst note”. Reuters (на језику: енглески). Архивирано из оригинала 3. 2. 2023. г. Приступљено 3. 6. 2023. 
  5. ^ Varanasi, Lakshmi (5. 1. 2023). „ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup's valuation to $29 billion”. Insider. Архивирано из оригинала 18. 1. 2023. г. Приступљено 18. 1. 2023. 
  6. ^ Epstein, Ziv; Hertzmann, Aaron; Akten, Memo; et al. (2023). „Art and the science of generative AI”. Science. 380 (6650): 1110—1111. Bibcode:2023Sci...380.1110E. PMID 37319193. S2CID 259095707. arXiv:2306.04141Слободан приступ. doi:10.1126/science.adh4451. 
  7. ^ Google (2016).
  8. ^ а б в г д Copeland, J., ур. (2004). The Essential Turing: the ideas that gave birth to the computer age (на језику: енглески). Oxford, England: Clarendon Press. ISBN 0-19-825079-7. 
  9. ^ а б Dartmouth workshop: The proposal:
  10. ^ а б Successful programs the 1960s:
  11. ^ а б Funding initiatives in the early 1980s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
  12. ^ а б First AI Winter, Lighthill report, Mansfield Amendment
  13. ^ а б Second AI Winter:
  14. ^ а б Deep learning revolution, AlexNet:
  15. ^ Toews (2023).
  16. ^ а б Frank (2023).
  17. ^ а б в Artificial general intelligence: Proposal for the modern version: Warnings of overspecialization in AI from leading researchers:
  18. ^ Russell & Norvig (2021, §1.2).
  19. ^ Problem solving, puzzle solving, game playing and deduction:
  20. ^ Uncertain reasoning:
  21. ^ а б в Intractability and efficiency and the combinatorial explosion:
  22. ^ а б в Psychological evidence of the prevalence sub-symbolic reasoning and knowledge:
  23. ^ Knowledge representation and knowledge engineering:
  24. ^ Smoliar & Zhang (1994).
  25. ^ Neumann & Möller (2008).
  26. ^ Kuperman, Reichley & Bailey (2006).
  27. ^ McGarry (2005).
  28. ^ Bertini, Del Bimbo & Torniai (2006).
  29. ^ Russell & Norvig (2021), стр. 272.
  30. ^ Representing categories and relations: Semantic networks, description logics, inheritance (including frames and scripts):
  31. ^ Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem):
  32. ^ Causal calculus:
  33. ^ Representing knowledge about knowledge: Belief calculus, modal logics:
  34. ^ а б Default reasoning, Frame problem, default logic, non-monotonic logics, circumscription, closed world assumption, abduction: (Poole et al. places abduction under "default reasoning". Luger et al. places this under "uncertain reasoning").
  35. ^ а б Breadth of commonsense knowledge:
  36. ^ Newquist (1994), стр. 296.
  37. ^ Crevier (1993), стр. 204–208.
  38. ^ Russell & Norvig (2021), стр. 528.
  39. ^ Automated planning:
  40. ^ Automated decision making, Decision theory:
  41. ^ Classical planning:
  42. ^ Sensorless or "conformant" planning, contingent planning, replanning (a.k.a online planning):
  43. ^ Uncertain preferences: Inverse reinforcement learning:
  44. ^ Information value theory:
  45. ^ Markov decision process:
  46. ^ Game theory and multi-agent decision theory:
  47. ^ Learning:
  48. ^ Turing (1950).
  49. ^ Solomonoff (1956).
  50. ^ Unsupervised learning:
  51. ^ а б Supervised learning:
  52. ^ Reinforcement learning:
  53. ^ Transfer learning:
  54. ^ „Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In”. builtin.com. Приступљено 30. 10. 2023. 
  55. ^ Computational learning theory:
  56. ^ Natural language processing (NLP):
  57. ^ Subproblems of NLP:
  58. ^ Russell & Norvig (2021), стр. 856–858.
  59. ^ Dickson (2022).
  60. ^ Modern statistical and deep learning approaches to NLP:
  61. ^ Vincent (2019).
  62. ^ Russell & Norvig (2021), стр. 875–878.
  63. ^ Bushwick (2023).
  64. ^ Computer vision:
  65. ^ Russell & Norvig (2021), стр. 849–850.
  66. ^ Russell & Norvig (2021), стр. 895–899.
  67. ^ Russell & Norvig (2021), стр. 899–901.
  68. ^ Russell & Norvig (2021), стр. 931–938.
  69. ^ MIT AIL (2014).
  70. ^ Affective computing:
  71. ^ Waddell (2018).
  72. ^ Poria et al. (2017).
  73. ^ Search algorithms:
  74. ^ State space search:
  75. ^ Russell & Norvig (2021), §11.2.
  76. ^ Uninformed searches (breadth first search, depth-first search and general state space search):
  77. ^ Heuristic or informed searches (e.g., greedy best first and A*):
  78. ^ Adversarial search:
  79. ^ Local or "optimization" search:
  80. ^ Singh Chauhan, Nagesh (18. 12. 2020). „Optimization Algorithms in Neural Networks”. KDnuggets (на језику: енглески). Приступљено 13. 01. 2024. 
  81. ^ Evolutionary computation:
  82. ^ Merkle & Middendorf (2013).
  83. ^ Logic:
  84. ^ Propositional logic:
  85. ^ First-order logic and features such as equality:
  86. ^ Logical inference:
  87. ^ Russell & Norvig (2021), §8.3.1.
  88. ^ Resolution and unification:
  89. ^ Forward chaining, backward chaining, Horn clauses, and logical deduction as search:
  90. ^ Fuzzy logic:
  91. ^ а б Stochastic methods for uncertain reasoning:
  92. ^ Bayesian networks:
  93. ^ Domingos (2015), chapter 6.
  94. ^ Bayesian inference algorithm:
  95. ^ Domingos (2015), стр. 210.
  96. ^ Bayesian learning and the expectation-maximization algorithm:
  97. ^ Bayesian decision theory and Bayesian decision networks:
  98. ^ а б в Stochastic temporal models: Hidden Markov model: Kalman filters: Dynamic Bayesian networks:
  99. ^ decision theory and decision analysis:
  100. ^ Information value theory:
  101. ^ Markov decision processes and dynamic decision networks:
  102. ^ Game theory and mechanism design:
  103. ^ Statistical learning methods and classifiers:
  104. ^ Decision trees:
  105. ^ Non-parameteric learning models such as K-nearest neighbor and support vector machines:
  106. ^ Domingos (2015), стр. 152.
  107. ^ Naive Bayes classifier:
  108. ^ а б Neural networks:
  109. ^ Gradient calculation in computational graphs, backpropagation, automatic differentiation:
  110. ^ Universal approximation theorem:
  111. ^ Feedforward neural networks:
  112. ^ Recurrent neural networks:
  113. ^ Perceptrons:
  114. ^ а б Deep learning:
  115. ^ Convolutional neural networks:
  116. ^ Deng & Yu (2014), стр. 199–200.
  117. ^ Ciresan, Meier & Schmidhuber (2012).
  118. ^ Russell & Norvig (2021), стр. 751.
  119. ^ а б в г д ђ е Russell & Norvig (2021), стр. 785.
  120. ^ а б Schmidhuber (2022), §5.
  121. ^ а б Schmidhuber (2022), §6.
  122. ^ а б в Schmidhuber (2022), §7.
  123. ^ Schmidhuber (2022), §8.
  124. ^ Schmidhuber (2022), §2.
  125. ^ Schmidhuber (2022), §3.
  126. ^ Quoted in Christian (2020, стр. 22)
  127. ^ Smith (2023).
  128. ^ „Explained: Generative AI”. 9. 11. 2023. 
  129. ^ „AI Writing and Content Creation Tools”. MIT Sloan Teaching & Learning Technologies. Приступљено 25. 12. 2023. 
  130. ^ Marmouyet (2023).
  131. ^ Kobielus (2019).
  132. ^ Davenport, T; Kalakota, R (јун 2019). „The potential for artificial intelligence in healthcare”. Future Healthc J. (на језику: енглески). 6 (2): 94—98. PMC 6616181Слободан приступ. PMID 31363513. doi:10.7861/futurehosp.6-2-94. 
  133. ^ а б Bax, Monique; Thorpe, Jordan; Romanov, Valentin (децембар 2023). „The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence”. Frontiers in Sensors (на језику: енглески). 4. ISSN 2673-5067. doi:10.3389/fsens.2023.1294721Слободан приступ. 
  134. ^ Jumper, J; Evans, R; Pritzel, A (2021). „Highly accurate protein structure prediction with AlphaFold”. Nature (на језику: енглески). 596 (7873): 583—589. Bibcode:2021Natur.596..583J. PMC 8371605Слободан приступ. PMID 34265844. doi:10.1038/s41586-021-03819-2. 
  135. ^ „AI discovers new class of antibiotics to kill drug-resistant bacteria”. 2023-12-20. 
  136. ^ Grant, Eugene F.; Lardner, Rex (25. 07. 1952). „The Talk of the Town – It”. The New Yorker (на језику: енглески). ISSN 0028-792X. Приступљено 28. 01. 2024. 
  137. ^ Anderson, Mark Robert (11. 05. 2017). „Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution”. The Conversation (на језику: енглески). Приступљено 28. 01. 2024. 
  138. ^ Markoff, John (16. 02. 2011). „Computer Wins on 'Jeopardy!': Trivial, It's Not”Неопходна новчана претплата. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 28. 01. 2024. 
  139. ^ Byford, Sam (27. 05. 2017). „AlphaGo retires from competitive Go after defeating world number one 3-0”. The Verge (на језику: енглески). Приступљено 28. 01. 2024. 
  140. ^ Brown, Noam; Sandholm, Tuomas (30. 08. 2019). „Superhuman AI for multiplayer poker”. Science (на језику: енглески). 365 (6456): 885—890. ISSN 0036-8075. doi:10.1126/science.aay2400. 
  141. ^ „MuZero: Mastering Go, chess, shogi and Atari without rules”. Google DeepMind (на језику: енглески). 23. 12. 2020. Приступљено 28. 01. 2024. 
  142. ^ Sample, Ian (30. 10. 2019). „AI becomes grandmaster in 'fiendishly complex' StarCraft II”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 28. 01. 2024. 
  143. ^ Wurman, P.R.; Barrett, S.; Kawamoto, K. (2022). „Outracing champion Gran Turismo drivers with deep reinforcement learning”. Nature. 602 (7896): 223—228. doi:10.1038/s41586-021-04357-7. 
  144. ^ а б в Congressional Research Service (2019). Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service. PD-notice
  145. ^ а б Slyusar, Vadym (2019). „Artificial intelligence as the basis of future control networks”. ResearchGate. doi:10.13140/RG.2.2.30247.50087. 
  146. ^ Knight, Will. „The US and 30 Other Nations Agree to Set Guardrails for Military AI”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 24. 01. 2024. 
  147. ^ Marcelline, Marco (27. 5. 2023). „ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot”. PCMag (на језику: енглески). Приступљено 28. 01. 2024. 
  148. ^ Lu, Donna (31. 03. 2023). „Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 28. 01. 2024. 
  149. ^ Hurst, Luke (23. 05. 2023). „How a fake image of a Pentagon explosion shared on Twitter caused a real dip on Wall Street”. euronews (на језику: енглески). Приступљено 28. 01. 2024. 
  150. ^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (06. 09. 2017). „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (на језику: енглески). Архивирано из оригинала 13. 2. 2024. г. 
  151. ^ Simonite (2016).
  152. ^ Russell & Norvig (2021), стр. 987.
  153. ^ Laskowski (2023).
  154. ^ GAO (2022).
  155. ^ Valinsky (2019).
  156. ^ Russell & Norvig (2021), стр. 991.
  157. ^ Russell & Norvig (2021), стр. 991–992.
  158. ^ Christian (2020), стр. 63.
  159. ^ Vincent (2022).
  160. ^ Reisner (2023).
  161. ^ Alter & Harris (2023).
  162. ^ Nicas (2018).
  163. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22. 7. 2019). „Trust and Distrust in America”. Pew Research Center. Архивирано из оригинала 22. 2. 2024. г. 
  164. ^ Williams (2023).
  165. ^ Taylor & Hern (2023).
  166. ^ а б Rose (2023).
  167. ^ CNA (2019).
  168. ^ Goffrey (2008), стр. 17.
  169. ^ Berdahl et al. (2023); Goffrey (2008, стр. 17); Rose (2023); Russell & Norvig (2021, стр. 995)
  170. ^ Algorithmic bias and Fairness (machine learning):
  171. ^ Christian (2020), стр. 25.
  172. ^ а б Russell & Norvig (2021), стр. 995.
  173. ^ Grant & Hill (2023).
  174. ^ Larson & Angwin (2016).
  175. ^ Christian (2020), стр. 67–70.
  176. ^ Christian (2020, стр. 67–70); Russell & Norvig (2021, стр. 993–994)
  177. ^ Russell & Norvig (2021, стр. 995); Lipartito (2011, стр. 36); Goodman & Flaxman (2017, стр. 6); Christian (2020, стр. 39–40, 65)
  178. ^ Quoted in Christian (2020, стр. 65).
  179. ^ Russell & Norvig (2021, стр. 994); Christian (2020, стр. 40, 80–81)
  180. ^ Quoted in Christian (2020, стр. 80)
  181. ^ Dockrill (2022).
  182. ^ Sample (2017).
  183. ^ „Black Box AI”. 16. 6. 2023. 
  184. ^ Christian (2020), стр. 110.
  185. ^ Christian (2020), стр. 88–91.
  186. ^ Christian (2020, стр. 83); Russell & Norvig (2021, стр. 997)
  187. ^ Christian (2020), стр. 91.
  188. ^ Christian (2020), стр. 83.
  189. ^ Verma (2021).
  190. ^ Rothman (2020).
  191. ^ Christian (2020), стр. 105-108.
  192. ^ Christian (2020), стр. 108–112.
  193. ^ Russell & Norvig (2021), стр. 989.
  194. ^ Robitzski (2018); Sainato (2015)
  195. ^ Russell & Norvig (2021), стр. 987-990.
  196. ^ Russell & Norvig (2021), стр. 988.
  197. ^ Harari (2018).
  198. ^ Buckley, Chris; Mozur, Paul (22. 5. 2019). „How China Uses High-Tech Surveillance to Subdue Minorities”. The New York Times. 
  199. ^ „Security lapse exposed a Chinese smart city surveillance system”. 3. 5. 2019. Архивирано из оригинала 7. 3. 2021. г. Приступљено 14. 9. 2020. 
  200. ^ „AI traffic signals to be installed in Bengaluru soon”. NextBigWhat (на језику: енглески). 24. 9. 2019. Архивирано из оригинала 01. 10. 2019. г. Приступљено 1. 10. 2019. 
  201. ^ Urbina et al. (2022).
  202. ^ Ewen Callaway. „Could AI-designed proteins be weaponized? Scientists lay out safety guidelines?”. 
  203. ^ Ewen Callaway (2023-07-11). „AI tools are designing entirely new proteins that could transform medicine”. 
  204. ^ Tarnoff, Ben (4. 8. 2023). „Lessons from Eliza”. The Guardian Weekly. стр. 34—9. 
  205. ^ а б в McGaughey, Ewan (2022). „Will Robots Automate Your Job Away? Full Employment, Basic Income and Economic Democracy”. Industrial Law Journal. 51 (3): 511—559. doi:10.1093/indlaw/dwab010. 
  206. ^ Ford & Colvin (2015)
  207. ^ IGM Chicago (2017).
  208. ^ Arntz, Gregory & Zierahn (2016), стр. 33.
  209. ^ Lohr (2017); Frey & Osborne (2017); Arntz, Gregory & Zierahn (2016, стр. 33)
  210. ^ Morgenstern (2015).
  211. ^ Mahdawi (2017); Thompson (2014)
  212. ^ Zhou, Viola (11. 04. 2023). „AI is already taking video game illustrators' jobs in China”. Rest of World (на језику: енглески). Приступљено 17. 08. 2023. 
  213. ^ Carter, Justin (11. 04. 2023). „China's game art industry reportedly decimated by growing AI use”. Game Developer (на језику: енглески). Приступљено 17. 08. 2023. 
  214. ^ Cellan-Jones (2014).
  215. ^ Russell & Norvig 2021, стр. 1001.
  216. ^ Bostrom (2014).
  217. ^ Russell (2019).
  218. ^ Bostrom (2014); Müller & Bostrom (2014); Bostrom (2015).
  219. ^ Harari (2023).
  220. ^ Müller & Bostrom (2014).
  221. ^ Leaders' concerns about the existential risks of ВИ around 2015:
  222. ^ Arguments that ВИ is not an imminent risk:
  223. ^ а б Christian (2020), стр. 67, 73.
  224. ^ Valance (2023).
  225. ^ Taylor, Josh (7. 5. 2023). „Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says”. The Guardian (на језику: енглески). Приступљено 26. 5. 2023. 
  226. ^ Colton, Emma (7. 5. 2023). „'Father of AI' says tech fears misplaced: 'You cannot stop it'. Fox News (на језику: енглески). Приступљено 26. 5. 2023. 
  227. ^ Jones, Hessie (23. 5. 2023). „Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia”. Forbes (на језику: енглески). Приступљено 26. 5. 2023. 
  228. ^ McMorrow, Ryan (19. 12. 2023). „Andrew Ng: 'Do we think the world is better off with more or less intelligence?'. Financial Times (на језику: енглески). Приступљено 30. 12. 2023. 
  229. ^ Levy, Steven (22. 12. 2023). „How Not to Be Stupid About AI, With Yann LeCun”. Wired (на језику: енглески). Приступљено 30. 12. 2023. 
  230. ^ Yudkowsky (2008).
  231. ^ а б Anderson & Anderson (2011).
  232. ^ AAAI (2014).
  233. ^ Wallach (2010).
  234. ^ Russell (2019), стр. 173.
  235. ^ Alan Turing Institute (2019). „Understanding artificial intelligence ethics and safety” (PDF). 
  236. ^ Alan Turing Institute (2023). „AI Ethics and Governance in Practice” (PDF). 
  237. ^ Floridi, Luciano; Cowls, Josh (23. 06. 2019). „A Unified Framework of Five Principles for AI in Society”. Harvard Data Science Review (на језику: енглески). 1 (1). S2CID 198775713. doi:10.1162/99608f92.8cd550d1Слободан приступ. 
  238. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (01. 09. 2020). „A critical perspective on guidelines for responsible and trustworthy artificial intelligence”. Medicine, Health Care and Philosophy (на језику: енглески). 23 (3): 387—399. ISSN 1572-8633. PMID 32236794. S2CID 214766800. doi:10.1007/s11019-020-09948-1. 
  239. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (01. 01. 2023). „Ethical issues in the development of artificial intelligence: recognizing the risks”. International Journal of Ethics and Systems. ahead-of-print (ahead-of-print). ISSN 2514-9369. S2CID 259614124. doi:10.1108/IJOES-05-2023-0107. 
  240. ^ Regulation of AI to mitigate risks:
  241. ^ а б Vincent (2023).
  242. ^ Stanford University (2023).
  243. ^ а б в г UNESCO (2021).
  244. ^ Kissinger (2021).
  245. ^ Altman, Brockman & Sutskever (2023).
  246. ^ VOA News (25. 10. 2023). „UN Announces Advisory Body on Artificial Intelligence”. 
  247. ^ Edwards (2023).
  248. ^ Kasperowicz (2023).
  249. ^ Fox News (2023).
  250. ^ Milmo, Dan (3. 11. 2023). „Hope or Horror? The great AI debate dividing its pioneers”. The Guardian Weekly. стр. 10—12. 
  251. ^ „The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023”. GOV.UK. 1. 11. 2023. Архивирано из оригинала 1. 11. 2023. г. Приступљено 2. 11. 2023. 
  252. ^ „Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration”. GOV.UK (Саопштење). Архивирано из оригинала 1. 11. 2023. г. Приступљено 1. 11. 2023. 
  253. ^ Berlinski (2000).
  254. ^ „Google books ngram”. 
  255. ^ AI's immediate precursors:
  256. ^ а б Russell & Norvig (2021), стр. 17.
  257. ^ See "A Brief History of Computing" at AlanTuring.net.
  258. ^ Crevier (1993), стр. 47–49.
  259. ^ Russell & Norvig (2003), стр. 17.
  260. ^ Russell & Norvig (2003), стр. 18.
  261. ^ Russell & Norvig (2021), стр. 21.
  262. ^ Lighthill (1973).
  263. ^ Russell & Norvig (2021), стр. 22.
  264. ^ Expert systems:
  265. ^ Russell & Norvig (2021), стр. 24.
  266. ^ Nilsson (1998), стр. 7.
  267. ^ McCorduck (2004), стр. 454–462.
  268. ^ Moravec (1988).
  269. ^ а б Brooks (1990).
  270. ^ Developmental robotics:
  271. ^ Russell & Norvig (2021), стр. 25.
  272. ^
  273. ^ Russell & Norvig (2021), стр. 26.
  274. ^ Formal and narrow methods adopted in the 1990s:
  275. ^ AI widely used in the late 1990s:
  276. ^ Wong (2023).
  277. ^ Moore's Law and AI:
  278. ^ а б в Clark (2015b).
  279. ^ Big data:
  280. ^ „Intellectual Property and Frontier Technologies”. WIPO. Архивирано из оригинала 2. 4. 2022. г. Приступљено 30. 3. 2022. 
  281. ^ DiFeliciantonio (2023).
  282. ^ Goswami (2023).
  283. ^ а б Turing (1950), стр. 1.
  284. ^ Turing's original publication of the Turing test in "Computing machinery and intelligence": Historical influence and philosophical implications:
  285. ^ Turing (1950), Under "The Argument from Consciousness".
  286. ^ Russell & Norvig (2021), chpt. 2.
  287. ^ Maker (2006).
  288. ^ McCarthy (1999).
  289. ^ Minsky (1986).
  290. ^ „What Is Artificial Intelligence (AI)?”. Google Cloud Platform. Архивирано из оригинала 31. 7. 2023. г. Приступљено 16. 10. 2023. 
  291. ^ Nilsson (1983), стр. 10.
  292. ^ Haugeland (1985), стр. 112–117.
  293. ^ Physical symbol system hypothesis: Historical significance:
  294. ^ Moravec's paradox:
  295. ^ Dreyfus' critique of AI: Historical significance and philosophical implications:
  296. ^ Crevier (1993), стр. 125.
  297. ^ Suresh, Harini; Guttag, John (04. 11. 2021). „A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle”. Equity and Access in Algorithms, Mechanisms, and Optimization. EAAMO '21. New York, NY, USA: Association for Computing Machinery. стр. 1—9. ISBN 978-1-4503-8553-4. S2CID 235436386. doi:10.1145/3465416.3483305. 
  298. ^ Striphas, Ted (фебруар 2012). „What is an Algorithm? – Culture Digitally”. culturedigitally.org. Приступљено 20. 11. 2017. 
  299. ^ Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to AlgorithmsСлободан приступ ограничен дужином пробне верзије, иначе неопходна претплата (3rd изд.). Cambridge, Mass.: MIT Press. стр. 5. ISBN 978-0-262-03384-8. 
  300. ^ Langley (2011).
  301. ^ Katz (2012).
  302. ^ Mihály, Héder (2023). „Explainable AI: A Brief History of the Concept” (PDF). ERCIM News (134): 9—10. 
  303. ^ Phillips, P. Jonathon; Hahn, Carina A.; Fontana, Peter C.; Yates, Amy N.; Greene, Kristen; Broniatowski, David A.; Przybocki, Mark A. (29. 09. 2021). „Four Principles of Explainable Artificial Intelligence”. doi:10.6028/nist.ir.8312. 
  304. ^ Vilone, Giulia; Longo, Luca (2021). „Notions of explainability and evaluation approaches for explainable artificial intelligence”. Information Fusion. December 2021 - Volume 76: 89—106. doi:10.1016/j.inffus.2021.05.009. 
  305. ^ Castelvecchi, Davide (06. 10. 2016). „Can we open the black box of AI?”. Nature (на језику: енглески). 538 (7623): 20—23. Bibcode:2016Natur.538...20C. ISSN 0028-0836. PMID 27708329. S2CID 4465871. doi:10.1038/538020a. 
  306. ^ Garcez, Artur d'Avila; Lamb, Luis C.; Gabbay, Dov M. (2009). „Neural-Symbolic Cognitive Reasoning”. Cognitive Technologies (на језику: енглески). ISSN 1611-2482. doi:10.1007/978-3-540-73246-4. 
  307. ^ Rocktäschel, Tim; Riedel, Sebastian (2016). „Learning Knowledge Base Inference with Neural Theorem Provers”. Proceedings of the 5th Workshop on Automated Knowledge Base Construction. San Diego, CA: Association for Computational Linguistics. стр. 45—50. doi:10.18653/v1/W16-1309Слободан приступ. Приступљено 2022-08-06. 
  308. ^ Serafini, Luciano; Garcez, Artur d'Avila (2016). „Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge”. arXiv:1606.04422Слободан приступ [cs.AI]. 
  309. ^ Neats vs. scruffies, the historic debate: A classic example of the "scruffy" approach to intelligence: A modern example of neat AI and its aspirations in the 21st century:
  310. ^ Gerges, Firas; Zouein, Germain; Azar, Danielle (2018-03-12). „Genetic Algorithms with Local Optima Handling to Solve Sudoku Puzzles”. Proceedings of the 2018 International Conference on Computing and Artificial Intelligence. ICCAI 2018. New York, NY, USA: Association for Computing Machinery. стр. 19—22. ISBN 978-1-4503-6419-5. S2CID 44152535. doi:10.1145/3194452.3194463. 
  311. ^ Burkhart, Michael C.; Ruiz, Gabriel (2023). „Neuroevolutionary representations for learning heterogeneous treatment effects”. Journal of Computational Science. 71: 102054. S2CID 258752823. doi:10.1016/j.jocs.2023.102054Слободан приступ. 
  312. ^ Novák, V.; Perfilieva, I.; Močkoř, J. (1999). Mathematical principles of fuzzy logic. Dordrecht: Kluwer Academic. ISBN 978-0-7923-8595-0. 
  313. ^ „Fuzzy Logic”. Stanford Encyclopedia of Philosophy. Bryant University. 23. 07. 2006. Приступљено 30. 09. 2008. 
  314. ^ Pelletier, Francis Jeffry (2000). „Review of Metamathematics of fuzzy logics (PDF). The Bulletin of Symbolic Logic. 6 (3): 342—346. JSTOR 421060. doi:10.2307/421060. Архивирано (PDF) из оригинала 03. 03. 2016. г. 
  315. ^ Zadeh, Lotfi A. (март 1994). „Fuzzy logic, neural networks, and soft computing”. Communications of the ACM (на језику: енглески). 37 (3): 77—84. ISSN 0001-0782. doi:10.1145/175247.175255Слободан приступ. 
  316. ^ Ibrahim, Dogan (2016). „An overview of soft computing.”. Procedia Computer Science. 102: 34—38. .
  317. ^ Kecman, Vojislav (2001). Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models (на језику: енглески). MIT Press. ISBN 978-0-262-11255-0. 
  318. ^ Chaturvedi, Devendra K (2008). „Soft computing.”. Studies in Computational intelligence. 103: 509—612. .
  319. ^ Ram, Mangey; Davim, J. Paulo (04. 05. 2018). Advanced Mathematical Techniques in Engineering Sciences (на језику: енглески). CRC Press. ISBN 978-1-351-37189-6. 
  320. ^ Chalmers, David (2010). „The Singularity: A Philosophical Analysis” (PDF). Journal of Consciousness Studies. 17: 7—65. 
  321. ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Department of Informatics, University of Lugano. Приступљено 19. 9. 2014. 
  322. ^ Müller, Vincent C.; Bostrom, Nick (2016). „Future Progress in Artificial Intelligence: A Survey of Expert Opinion”. Ур.: Müller, Vincent C. Fundamental Issues of Artificial Intelligence. Springer. стр. 553—571. 
  323. ^ Santos-Lang, Christopher (2014). „Our responsibility to manage evaluative diversity” (PDF). ACM SIGCAS Computers & Society. 44 (2): 16—19. S2CID 5649158. doi:10.1145/2656870.2656874. Архивирано из оригинала (PDF) 02. 11. 2018. г. Приступљено 12. 03. 2024. 
  324. ^ Dvorsky, George (1. 4. 2013). „How Much Longer Before Our First AI Catastrophe?”. Gizmodo. Приступљено 27. 11. 2021. 
  325. ^ Muehlhauser, Luke (18. 10. 2013). „Ben Goertzel on AGI as a Field”. Machine Intelligence Research Institute. Приступљено 27. 11. 2021. 
  326. ^ Chalfen, Mike (15. 10. 2015). „The Challenges Of Building AI Apps”. TechCrunch. Приступљено 27. 11. 2021. 
  327. ^ The Cambridge handbook of artificial intelligence. Frankish, Keith., Ramsey, William M., 1960-. Cambridge, UK. 12. 6. 2014. стр. 342. ISBN 978-0-521-87142-6. OCLC 865297798. 
  328. ^ Chandler, Daniel; Munday, Rod (2020). A Dictionary of Media and Communication. Oxford University Press. ISBN 978-0-19-884183-8. doi:10.1093/acref/9780198841838.001.0001. 
  329. ^ Pennachin & Goertzel (2007).
  330. ^ а б Roberts (2016).
  331. ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric, ур., „The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence”, Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, стр. 199—238, ISBN 978-3-642-32559-5, doi:10.1007/978-3-642-32560-1_11, Приступљено 2022-01-16 
  332. ^ Gouveia, Steven S., ур. (2020). „ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce”. The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4. 
  333. ^ Russell & Norvig (2021), стр. 986.
  334. ^ Goode, Luke (30. 10. 2018). „Life, but not as we know it: A.I. and the popular imagination”. Culture Unbound. Linkoping University Electronic Press. 10 (2): 185—207. ISSN 2000-1525. S2CID 149523987. doi:10.3384/cu.2000.1525.2018102185Слободан приступ. 
  335. ^ Lucas, Duncan (2002). Body, Mind, Soul—The'Cyborg Effect': Artificial Intelligence in Science Fiction (thesis). McMaster University (PhD thesis). hdl:11375/11154. 
  336. ^ Mubin, Omar; Wadibhasme, Kewal; Jordan, Philipp; Obaid, Mohammad (2019). „Reflecting on the Presence of Science Fiction Robots in Computing Literature”. ACM Transactions on Human-Robot Interaction. 8 (1). Article 5. S2CID 75135568. doi:10.1145/3303706Слободан приступ. 
  337. ^ Solarewicz, Krzysztof (2015). „The Stuff That Dreams Are Made of: AI in Contemporary Science Fiction”. Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics. 9. Springer International Publishing. стр. 111—120. ISBN 978-3-319-09667-4. doi:10.1007/978-3-319-09668-1_8. 
  338. ^ Wiegel, Alexander (2012). „AI in Science-fiction: a comparison of Moon (2009) and 2001: A Space Odyssey (1968)”. Aventinus. 
  339. ^ Chalmers (1995).
  340. ^ Dennett (1991).
  341. ^ Horst (2005).
  342. ^ Searle (1999).
  343. ^ Searle (1980), стр. 1.
  344. ^ Russell & Norvig (2021), стр. 9817.
  345. ^ Searle's Chinese room argument: Discussion:
  346. ^ Leith, Sam (07. 07. 2022). „Nick Bostrom: How can we be certain a machine isn’t conscious?”. The Spectator (на језику: енглески). Приступљено 23. 02. 2024. 
  347. ^ а б в Thomson, Jonny (31. 10. 2022). „Why don't robots have rights?”. Big Think (на језику: енглески). Приступљено 23. 02. 2024. 
  348. ^ а б Kateman, Brian (24. 07. 2023). „AI Should Be Terrified of Humans”. TIME (на језику: енглески). Приступљено 23. 02. 2024. 
  349. ^ Wong, Jeff (10. 7. 2023). „What leaders need to know about robot rights”. Fast Company. 
  350. ^ Hern, Alex (12. 01. 2017). „Give robots 'personhood' status, EU committee argues”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 23. 02. 2024. 
  351. ^ Dovey, Dana (14. 04. 2018). „Experts Don't Think Robots Should Have Rights”. Newsweek (на језику: енглески). Приступљено 23. 02. 2024. 
  352. ^ Cuddy, Alice (13. 04. 2018). „Robot rights violate human rights, experts warn EU”. euronews (на језику: енглески). Приступљено 23. 02. 2024. 
  353. ^ The Intelligence explosion and technological singularity: I. J. Good's "intelligence explosion" Vernor Vinge's "singularity"
  354. ^ Russell & Norvig (2021), стр. 1005.
  355. ^ Transhumanism:
  356. ^ „Darwin Among the Machines [To the Editor of the Press, Christchurch, New Zealand, 13 June, 1863.]”. New Zealand Electronic Text Centre. Архивирано из оригинала 2006-05-24. г. 
  357. ^ AI as evolution:
  358. ^ Roberts, Adam (2006). The History of Science FictionНеопходна слободна регистрација. New York: Palgrave Macmillan. стр. 168. ISBN 978-0-333-97022-5. 
  359. ^ а б Voyen Koreis. „Capek's RUR”. Архивирано из оригинала 23. 12. 2013. г. Приступљено 23. 7. 2013. 
  360. ^ Madigan, Tim (2012). „RUR or RU Ain't A Person?”. Philosophy Now. Архивирано из оригинала 3. 2. 2013. г. Приступљено 24. 7. 2013. 
  361. ^ Rubin, Charles T. (2011). „Machine Morality and Human Responsibility”. The New Atlantis. Архивирано из оригинала 26. 10. 2013. г. Приступљено 24. 7. 2013. 
  362. ^ „Ottoman Turkish Translation of R.U.R. – Library Details” (на језику: турски). Архивирано из оригинала 3. 2. 2014. г. Приступљено 24. 7. 2013. 
  363. ^ AI in myth:
  364. ^ McCorduck (2004), стр. 340–400.
  365. ^ Miller (1990). Tropes, Parables, and Performatives. Duke University Press. стр. 9. ISBN 9780822311119. 
  366. ^ Lundberg, Christian O.; Keith, William M. (10. 11. 2017). The essential guide to rhetoric. Bedford/St. Martin's. ISBN 9781319094195. OCLC 1016051800. 
  367. ^ Cuddon, J. A.; Preston, C. E. (1998). „Trope”. The Penguin Dictionary of Literary Terms and Literary Theory (4th изд.). London: Penguin. стр. 948. ISBN 9780140513639. 
  368. ^ Arthur C. Clarke The Lost Worlds of 2001, Signet, 1972
  369. ^ Clément, Gilles; Bukley, Angie; Paloski, William, "History of artificial gravity", ch. 3 in, Clément, Gilles; Bukley, Angie (eds), Artificial Gravity, Springer Science & Business Media, 2007 ISBN 038770714X.
  370. ^ Schwarm, Stephanie, The Making of 2001: a Space Odyssey, Modern Library, 2000 ISBN 0375755284.
  371. ^ Buttazzo (2001).
  372. ^ Asimov, Isaac (1950). „Runaround”. I, Robot (на језику: енглески) (The Isaac Asimov Collection изд.). New York City: Doubleday. стр. 40. ISBN 978-0-385-42304-5. „This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law. 
  373. ^ Isaac Asimov (1964). „Introduction”. The Rest of the RobotsНеопходна слободна регистрација. Doubleday. ISBN 978-0-385-09041-4. 
  374. ^ Gunn, James (јул 1980). „On Variations on a Robot”. IASFM: 56—81.  Reprinted in. James Gunn. (1982). Isaac Asimov: The Foundations of Science Fiction. Oxford u.a.: Oxford Univ. Pr. ISBN 978-0-19-503060-0. 
  375. ^ Asimov, Isaac (1979). In Memory Yet Green. Doubleday. стр. 237. ISBN 978-0-380-75432-8. 
  376. ^ Anderson (2008).
  377. ^ McCauley (2007).
  378. ^ Galvan (1997).
  379. ^ „Zabluđen, vrćevina i zorožur: Donosimo širi izbor za takmičenje „Najbolja nova srpska reč“ - Kultura - Dnevni list Danas” (на језику: српски). 2024-10-06. Приступљено 2024-11-14. 

Литература

[уреди | уреди извор]

Спољашње везе

[уреди | уреди извор]