Пређи на садржај

Функције губитака за класификацију

С Википедије, слободне енциклопедије
Бајесове конзистентне функције губитка: губитак нула-један (сива), губитак дивљака (зелена), логистички губитак (наранџаста), експоненцијални губитак (љубичаста), губитак тангента (браон), губитак квадрата (плава)

У машинском учењу и математичкој оптимизацији, функције губитка за класификацију су рачунски изводљиве функције губитка које представљају цену плаћену за нетачност предвиђања у проблемима класификације (проблеми идентификације којој категорији припада одређено запажање). Дато као простор свих могућих улаза (обично ), и као скуп ознака (могућих излаза), типичан циљ класификационих алгоритама је проналажење функције који најбоље предвиђа ознаку за дати улаз . Међутим, због непотпуних информација, шума у мерењу или вероватноћа компоненти у основном процесу, могуће је да исти генерише различите . Као резултат, циљ проблема учења је да се минимизира очекивани губитак (такође познат као ризик), дефинисан као

где је дата функција губитка, и је функција густине вероватноће процеса који је генерисао податке, што је еквивалентно:

У оквиру класификације, неколико често коришћених функција губитка је написано искључиво у смислу производа праве лабеле и предвиђене лабеле . Стога се могу дефинисати као функције само једне променљиве , тако да са прикладно одабраном функцијом . Оне се називају функције губитка засноване на маржи . Одабир функције губитка засноване на маржи представља избор . Избор функције губитка унутар овог оквира утиче на оптималну што минимизира очекивани ризик.

У случају бинарне класификације, могуће је поједноставити израчунавање очекиваног ризика из горе наведеног интеграла. Односно:

Друга једнакост произилази из горе описаних својстава. Трећа једнакост произилази из чињенице да су 1 и −1 једине могуће вредности за , а четврта јер је . Термин у заградама је познат као условни ризик.

Може се решити за минимизатор од узимањем функционалног извода последње једнакости у односу на и изједначавањем извода са 0. Ово ће резултирати следећом једначином:

што је еквивалентно постављању извода условног ризика једнаком нули.

С обзиром на бинарну природу класификације, природна селекција за функцију губитка (под претпоставком да је једнака цена за лажне позитивне и лажно негативне ) била би функција губитка 0-1 ( функција индикатора 0–1), која узима вредност 0 ако је предвиђено класификација једнака оној праве класе или 1 ако се предвиђена класификација не поклапа са правом класом. Овај избор је моделован по следећој једнокости:

где означава функцију Хевисајдовог корака. Међутим, ова функција губитка није конвексна и није глатка, а решавање оптималног решења је НП-тежак комбинаторни оптимизациони проблем. Као резултат тога, боље је заменити сурогате функције губитка који су погодни за уобичајено коришћене код алгоритама учења, јер имају погодна својства као што је конвексност и глаткос. Поред њихове рачунске поправљивости, може се показати да решења проблема учења помоћу ових сурогата губитака омогућавају опоравак стварног решења оригиналног проблема класификације. Неки од ових сурогата су описани у наставку.

У пракси, расподела вероватноће је непозната. Сходно томе, користити тренинг сет за обуку независно и идентично распоређених тачки узорка

извучен из простора елемантарних узорака података, настоји се минимизирати емпиријски ризик

као замена за очекивани ризик.

Бајесова конзистенција

[уреди | уреди извор]

Користећи Бајесову теорему, може се показати да је оптимална , тј. она који минимизује очекивани ризик повезан са губитком нула-један, имплементира Бајесово правило оптималне одлуке за проблем бинарне класификације и у облику је:

.

За функцију губитка се каже да је калибрисана класификацијом или Бајесова конзистентна ако је оптимална је такава да и стога је оптималана према Бајесовом правилу одлучивања. Бајесова конзистентна функција губитка омогућава нам да пронађемо Бајесову оптималну функцију одлучивања директним минимизовањем очекиваног ризика и без потребе за експлицитним моделирањем функција густине вероватноће.

За губитак конвексне маргине , може се показати да је Бајес конзистентан ако и само ако је диференцибилан на 0 и . Ипак, овај резултат не искључује постојање неконвексних Бајесових конзистентних функција губитка. Општији резултат каже да се Бајесове конзистентне функције губитка могу генерисати коришћењем следеће формулације:

,

где је било која инверзибилна функција таква да је и било која диференцибилна стриктно конкавна функција таква да је . Табела-И приказује генерисане Бајесове конзистентне функције губитка за неке примере избора и . Имајте на уму да нису сви губитци конвексни. Показало се да су такве неконвексне функције губитка корисне у раду са одступницима у класификацији. За све функције губитка генерисане из (2), постериорна вероватноћа може се наћи помоћу функције инверзне везе као . Такве функције губитка где се задња вероватноћа може повратити коришћењем инверзибилне везе називају се функције правилног губитка .

Табела-И
Име губитка
Експоненцијално
Логистиц
Квадрат
Севиџ
Тангента


Једини минимизатор очекиваног ризика, , повезан са горе генерисаним функцијама губитака може се директно наћи из једначине (1) и показати да је једнака одговарајућој . Ово важи чак и за неконвексне функције губитка, што значи да се алгоритми засновани на градијенту спуштања, као што је повећање градијента, који се може користити за конструисање минимизатора.

Исправне функције губитка, маргина губитка и регуларизација

[уреди | уреди извор]
(Црвени) стандардни логистички губитак ( ) и (Плава) повећана маржа Логистички губитак ( ).

За валидне функције губитка, маргина губитка се може дефинисати као а показало се да је директно повезана са својствима регуларизације класификатора. Конкретно, функција губитка веће маргине повећава регуларизацију и даје боље процене постериорне вероватноће. На пример, маржа губитка се може повећати за логистички губитак увођењем а параметар и писање логистичког губитка као где мањи повећава маргину губитка. Показано је да је ово директно еквивалентно смањењу стопе учења у подизању градијента где смањење побољшава регуларизацију појачаног класификатора. Теорија јасно показује да када стопа учења од се користи, исправна формула за добијање постериорне вероватноће је сада .

Закључујемо, избором функције губитка са већом маргином (мањом ) повећавамо регуларизацију и побољшавамо наше процене постериорне вероватноће што заузврат побољшава ROC(површину конвергенције) криву коначног класификатора.

Квадратни губитак

[уреди | уреди извор]

Иако је чешће коришћена у регресији, функција квадратног губитка може се поново написати као функција и користи се за класификацију. Може се генерисати коришћењем израза (2) и табеле-И на следећи начин:

Функција квадратног губитка је и конвексна и глатка. Међутим, функција квадратног губитка има тенденцију да прекомерно кажњава граничне вредности, што доводи до спорије конвергенције (у односу на сложеност узорка) него за функције логистичког губитка или губитка зглоба. Поред тога, функције које дају високе вредности за за неке ће имати лошије перформансе са функцијом квадратног губитка, пошто ће високе вредности од бити строго кажњене, без обзира на то да ли се знаци од и поклапају.

Предност функције квадратног губитка је у томе што њена структура омогућава лаку унакрсну валидацију параметара регуларизације. Конкретно за Тихоновљеву регуларизацију, параметар регуларизације се може решити коришћењем унакрсне валидације за исто време које би било потребно за решавање једног проблема.

Минимизација за за функцију квадратног губитка може се директно наћи из једначине (1) као:

Логистички губитак

[уреди | уреди извор]

Функција логистичких губитака може се генерисати коришћењем (2) и табеле-И као:

Логистички губитак је конвексан и расте линеарно за негативне вредности што га чини мање осетљивим на одступања. Логистички губитак се користи у ЛогитБоост алгоритму .

Минимизатор за за функцију логистичког губитка може се директно наћи из једначине (1) као

Ова функција је недефинисана када или (тежући ка ∞ и −∞ респективно), али предвиђа глатку криву која расте када расте и једнака је 0 када .

Лако је проверити да ли су логистички губитак и бинарни губитак ентропије у ствари исти (до мултипликативне константе ). Губитак унакрсне ентропије је уско повезан са Кулбек-Лајблеровом дивергенцијом између емпиријске расподеле и предвиђене расподеле. Губитак унакрсне ентропије је свеприсутан у савременим дубоким неуронским мрежама .

Експоненцијални губитак

[уреди | уреди извор]

Функција експоненцијалног губитка може се генерисати коришћењем (2) и табеле-И као:

Експоненцијални губитак је конвексан и расте експоненцијално за негативне вредности што га чини осетљивијим на одступања. Експоненцијални губитак се користи у АдаБуст алгоритму .

Минимизатор за за експоненцијалну функцију губитка може се директно наћи из једначине (1) као:

Севиџ(дивљи) губитак

[уреди | уреди извор]

Савиџ губитак се може генерисати коришћењем (2) и табеле-И на следећи начин:

Савиџ губитак је квази-конвексан и ограничен је за велике негативне вредности што га чини мање осетљивим на спољне вредности. Севиџ губитак је коришћен у појачавању градијента и алгоритму СавиџБуст.

Минимизатор за за Севиџ функцију губитка може се директно наћи из једначине (1) као:

Губитак тангенте

[уреди | уреди извор]

Губитак тангенте може се генерисати коришћењем (2) и табеле-И на следећи начин:

Губитак тангенте је квази-конвексан и ограничен је за велике негативне вредности што га чини мање осетљивим на одступања. Занимљиво је да губитак тангенте такође додељује ограничену казну тачкама података које су класификоване „превише исправне (оверфит)“. Ово може помоћи у спречавању претеране обуке на скупу података. Губитак тангенте је коришћен у појачавању градијента, алгоритму ТангентБуст и шумама наизменичних одлука.

Минимизатор за за тангентну функцију губитка може се директно наћи из једначине (1) као:

Губитак зглоба

[уреди | уреди извор]

Функција губитка зглоба је дефинисана као , где је функција позитивног дела .

Губитак зглоба обезбеђује релативно чврсту, конвексну горњу границу на функцији индикатора 0–1. Конкретно, губитак зглоба је једнак функцији индикатора 0–1 када и . Поред тога, емпиријска минимизација ризика од овог губитка је еквивалентна класичној формулацији за машине подржане векторима (SVMs). Тачно класификоване тачке које леже изван маргиналних граница вектора подршке се не кажњавају, док се тачке унутар граница маргине или на погрешној страни хиперравне кажњавају на линеарни начин у поређењу са њиховом удаљености од исправне границе.

Док је функција губитка зглоба и конвексна и континуирана, није глатка (не може се разликовати) на . Сходно томе, функција губитка зглоба се не може користити са методама градијентног спуста или методама стохастичког градијента које се ослањају на диференцијабилност у целом домену. Међутим, губитак зглоба има субградијент на , што омогућава коришћење субградијентних метода спуштања . SVM-ови који користе функцију губитка зглоба такође се могу решити коришћењем квадратног програмирања .

Минимизатор од за функцију губитка зглоба је

када , што одговара функцији индикатора 0–1. Овај закључак чини губитак зглоба прилично атрактивним, јер се могу поставити границе између очекиваног ризика и знака функције губитка зглоба. Губитак зглоба се не може извести из (2) јер није инверзибилан.

Генерализовани глатки губитак зглоба

[уреди | уреди извор]

Генерализована глатка функција губитка зглоба са параметром се дефинише као:

где је

Она се монотоно повећава и достиже 0 када .