Вештачката интелигенција може да се чувствува како магичен трик низ кој сите кимаат додека тивко размислуваат… почекајте, како всушност функционира ова? Добри вести. Ќе го демистифицираме без претерување, ќе останеме практични и ќе додадеме неколку несовршени аналогии што сепак ќе го направат да изгледа едноставно. Ако само сакате суштината, преминете на едноминутниот одговор подолу; но искрено, деталите се таму каде што свети сијалицата 💡.
Статии што можеби ќе ве интересираат по оваа:
🔗 Што значи GPT?
Краток опис на акронимот GPT и неговото значење.
🔗 Од каде вештачката интелигенција ги добива своите информации
Извори што вештачката интелигенција ги користи за учење, обука и одговарање на прашања.
🔗 Како да ја вклучите вештачката интелигенција во вашиот бизнис
Практични чекори, алатки и работни процеси за ефикасно интегрирање на вештачката интелигенција.
🔗 Како да започнете компанија за вештачка интелигенција
Од идеја до лансирање: валидација, финансирање, тимска работа и реализација.
Како функционира вештачката интелигенција? Одговорот во една минута ⏱️
Вештачката интелигенција учи шеми од податоци за да прави предвидувања или да генерира содржина - не се потребни рачно напишани правила. Системот внесува примери, мери колку е погрешен преку функција за губење и ги поттикнува своите внатрешни копчиња - параметри - да бидат малку помалку погрешни секој пат. Исплакнете, повторете, подобрете. Со доволно циклуси, станува корисно. Иста приказна без разлика дали класифицирате е-пошта, забележувате тумори, играте друштвени игри или пишувате хаикуа. За основи на едноставен јазик во „машинското учење“, прегледот на IBM е солиден [1].
Поголемиот дел од модерната вештачка интелигенција е машинско учење. Едноставната верзија: внесување податоци, учење мапирање од влезни податоци кон излезни податоци, а потоа генерализирање на нови работи. Не магична математика, пресметување и, ако сме искрени, малку уметност.
„Како функционира вештачката интелигенција?“ ✅
Кога луѓето пребаруваат на Google „ Како функционира вештачката интелигенција?“ , тие обично сакаат:
-
ментален модел за повеќекратна употреба на кој можат да му веруваат
-
мапа на главните типови на учење, така што жаргонот ќе престане да биде застрашувачки
-
поглед во невронските мрежи без да се изгубите
-
Зошто трансформерите сега го владеат светот
-
практичниот процес од податоци до распоредување
-
брза споредбена табела што можете да ја зачувате на екранот од екранот
-
заштитни огради за етика, пристрасност и сигурност кои не се брановидни
Тоа е она што ќе го добиеш овде. Ако талкам, тоа е намерно - како да одам по живописната рута и некако да ги запомнам улиците подобро следниот пат. 🗺️
Основните состојки на повеќето системи со вештачка интелигенција 🧪
Замислете систем со вештачка интелигенција како кујна. Четири состојки се појавуваат одново и одново:
-
Податоци — примери со или без етикети.
-
Модел — математичка функција со прилагодливи параметри.
-
Цел — функција на загуба што мери колку се лоши претпоставките.
-
Оптимизација — алгоритам кој ги поместува параметрите за да ги намали загубите.
При длабоко учење, тоа поттурнување е обично градиентно спуштање со обратно пропагирање - ефикасен начин да се открие кое копче на гигантска резонантна табла шкрипило, а потоа да се намали малку [2].
Мини-случај: Заменивме кршлив филтер за спам базиран на правила со мал надгледуван модел. По една недела циклуси на етикета → мерење → ажурирање, лажните позитиви се намалија, а се намалија и тикетите за поддршка. Ништо фенси - само почисти цели (прецизност на „провокативни“ е-пораки) и подобра оптимизација.
Парадигми на учење на прв поглед 🎓
-
Надгледувано учење
Обезбедувате парови влез-излез (фотографии со етикети, е-пораки означени како спам/не спам). Моделот учи влез → излез. Основа на многу практични системи [1]. -
Учење без надзор
Без етикети. Пронајдете структурни кластери, компресии, латентни фактори. Одлично за истражување или претходна обука. -
Самостојно надгледувано учење
Моделот ги прави своите етикети (предвидува го следниот збор, недостасувачката лепенка на сликата). Ги претвора суровите податоци во сигнал за обука во голем обем; е основа на современите јазични и визуелни модели. -
Засилувачко учење
Агентот дејствува, собира награди и учи политика што ја максимизира кумулативната награда. Ако „вредностните функции“, „политиките“ и „учењето со временски разлики“ ѕвонат - ова е нивниот дом [5].
Да, категориите се замаглуваат во пракса. Хибридните методи се нормални. Вистинскиот живот е хаотичен; добриот инженеринг се среќава со него таму каде што е.
Внатре во невронска мрежа без главоболка 🧠
Невронската мрежа натрупува слоеви од ситни математички единици (неврони). Секој слој ги трансформира влезните податоци со тежини, пристрасности и мека нелинеарност како ReLU или GELU. Раните слоеви учат едноставни карактеристики; подлабоките кодираат апстракции. „Магијата“ - ако можеме така да ја наречеме - е композицијата : поврзете мали функции и можете да моделирате неверојатно сложени феномени.
Јамка за тренинг, само вибрации:
-
претпоставка → грешка во мерењето → вина на атрибутот преку задна потпора → поттурнување на тежини → повторување.
Правете го ова во серии и, како несмасен танчер што ја подобрува секоја песна, моделот престанува да ви гази на прстите. За пријателско, ригорозно поглавје во позадина, видете [2].
Зошто трансформерите преовладаа - и што всушност значи „внимание“ 🧲
Трансформерите го користат самовниманието за да проценат кои делови од внесениот текст се важни еден за друг, одеднаш. Наместо да чита реченица строго од лево кон десно како постарите модели, трансформерот може да гледа насекаде и динамички да ги проценува односите - како скенирање на преполна просторија за да види кој со кого зборува.
Овој дизајн ги отфрли рекурентноста и конволуциите за моделирање на секвенци, овозможувајќи масивен паралелизам и одлично скалирање. Трудот што го започна тоа - Attention Is All You Need - ја изложува архитектурата и резултатите [3].
Самовнимание во еден ред: направете на барања , клучеви и вредности за секој токен; пресметајте сличности за да добиете тежини на внимание; соодветно измешајте вредности. Прецизно во детали, елегантно во дух.
Внимание: Трансформерите доминираат, не монополизираат. CNN, RNN и ансамблите од дрвја сè уште победуваат на одредени типови на податоци и ограничувања на латенцијата/цената. Изберете ја архитектурата за работата, а не возбудата.
Како функционира вештачката интелигенција? Практичниот цевковод што всушност ќе го користите 🛠️
-
Формирање на проблем
Што предвидувате или генерирате и како ќе се мери успехот? -
податоци
, етикетирај доколку е потребно, исчисти и подели. Очекувај недостасувачки вредности и рабни случаи. -
Моделирање
Започнете едноставно. Основните линии (логистичка регресија, зголемување на градиентот или мал трансформатор) честопати ја надминуваат херојската сложеност. -
Обука
Изберете цел, изберете оптимизатор, поставете хиперпараметри. Итерирајте. -
Евалуација
Користете одложувања, вкрстена валидација и метрики поврзани со вашата вистинска цел (точност, F1, AUROC, BLEU, збунетост, латенција). -
Распоредување:
Сервирајте зад API или вградете во апликација. Следете ја латенцијата, трошоците, пропусноста. -
Мониторинг и управување
Следете го отстапувањето, праведноста, робусноста и безбедноста. Рамката за управување со ризици од вештачка интелигенција на NIST (GOVERN, MAP, MEASURE, MANAGE) е практична контролна листа за доверливи системи од почеток до крај [4].
Мини-случај: Визуелен модел постигна најдобар резултат во лабораторијата, а потоа се погреши на терен кога се промени осветлувањето. Следење на означеното поместување во влезните хистограми; брзо зголемување + фино подесување на поместувањето ги врати перформансите. Досадно? Да. Ефикасно? Исто така да.
Табела за споредба - пристапи, за кого се наменети, приближна цена, зошто функционираат 📊
Несовршено намерно: малку нерамномерното фразирање му помага да се чувствува човечко.
| Пристап | Идеална публика | Премногу скапо | Зошто функционира / белешки |
|---|---|---|---|
| Надгледувано учење | Аналитичари, тимови за производи | низок-среден | Директен внес за мапирање → етикета. Одлично кога постојат етикети; ја формира основата на многу распоредени системи [1]. |
| Ненадгледуван | Истражувачи на податоци, истражување и развој | ниско | Пронаоѓа кластери/компресии/латентни фактори - добро за откривање и претходна обука. |
| Самостојно надгледувано | Тимови на платформата | медиум | Создава свои етикети од сурови податоци - скали со пресметка и податоци. |
| Засилувачко учење | Роботика, истражување на оперативните системи | средно-високо | Ги учи политиките од сигналите за награда; прочитајте ги Сатон и Барто за канонот [5]. |
| Трансформери | НЛП, визија, мултимодално | средно-високо | Самовниманието ги доловува долгите депресии и добро се паралелизира; видете го оригиналниот труд [3]. |
| Класичен ML (дрвја) | Табеларни бизнис апликации | ниско | Евтини, брзи, честопати шокантно силни основни линии на структурирани податоци. |
| Базирано на правила/симболично | Усогласеност, детерминистичка | многу ниско | Транспарентна логика; корисна кај хибридите кога ви е потребна ревизија. |
| Евалуација и ризик | Секој | варира | Користете го GOVERN-MAP-MEASURE-MANAGE на NIST за да го одржите безбедно и корисно [4]. |
Ценовно = етикетирање на податоци + пресметка + луѓе + услужување.
Длабоко нурнување 1 - функции на губење, градиенти и мали чекори што менуваат сè 📉
Замислете како поставувате линија за да ја предвидите цената на куќата од големината. Ги избирате параметрите (w) и (b), предвидувате (\hat{y} = wx + b) и ја мерите грешката со средна квадратна загуба. Градиентот ви кажува во која насока да се движите (w) и (b) за да ја намалите загубата најбрзо - како одење надолу по магла со чувство на наклон на земјата. Ажурирајте по секоја серија и вашата линија ќе се приближи до реалноста.
Во длабоките мрежи тоа е истата песна со поголем опсег. Backprop пресметува како параметрите на секој слој влијаеле на конечната грешка - ефикасно - за да можете да насочите милиони (или милијарди) копчиња во вистинската насока [2].
Клучни интуиции:
-
Загубата го обликува пејзажот.
-
Градиентите се вашиот компас.
-
Стапката на учење е големина на чекор - преголема е и се нишаш, премала е и дремнуваш.
-
Регуларизацијата ве спречува да го запомните сетот за обука како папагал со совршено сеќавање, но без разбирање.
Длабоко нуркање 2 - вградувања, поттикнување и пребарување 🧭
Вградувањата ги мапираат зборовите, сликите или предметите во векторски простори каде што сличните нешта се наоѓаат блиску една до друга. Тоа ви овозможува:
-
пронајдете семантички слични пасуси
-
моќно пребарување што разбира значење
-
вклучете генерирање со зголемено пребарување (RAG) за да може јазичниот модел да пребарува факти пред да напише
Поттикнувањето е начинот на кој управувате со генеративни модели - опишувајте ја задачата, давајте примери, поставувајте ограничувања. Замислете го тоа како пишување многу детална спецификација за многу брз практикант: желен, повремено премногу самоуверен.
Практичен совет: ако вашиот модел халуцинира, додадете пребарување, затегнете го прашањето или евалуирајте со втемелени метрики наместо „вибрации“.
Длабоко нуркање 3 - евалуација без илузии 🧪
Добрата евалуација изгледа здодевно - што е токму поентата.
-
Користете заклучен тест сет.
-
Изберете метрика што ја одразува болката на корисникот.
-
Направете аблации за да знаете што всушност помогнало.
-
Евидентирајте ги неуспесите со реални, незгодни примери.
Во производството, мониторингот е евалуација што никогаш не запира. Се случуваат отстапувања. Се појавуваат нови сленгови, сензорите се рекалибрираат, а вчерашниот модел малку се лизга. NIST рамката е практична референца за континуирано управување со ризици и управување - а не документ за политика што треба да се фрли на полица [4].
Забелешка за етика, пристрасност и веродостојност ⚖️
Системите со вештачка интелигенција ги одразуваат своите податоци и контекстот на распоредување. Тоа носи ризик: пристрасност, нееднакви грешки меѓу групите, кршливост при промена на дистрибуцијата. Етичката употреба не е опционална - тоа се влогови во табелата. NIST посочува на конкретни практики: документирање на ризиците и влијанијата, мерење на штетните пристрасности, градење резервни опции и информирање на луѓето кога влоговите се високи [4].
Конкретни потези што помагаат:
-
собираат разновидни, репрезентативни податоци
-
мерење на перформансите низ сите подпопулации
-
картички за модели на документи и листови со податоци
-
додадете човечки надзор таму каде што влоговите се високи
-
дизајнирајте безбедни системи кога системот е несигурен
Како функционира вештачката интелигенција? Како ментален модел можете да го користите повторно 🧩
Компактна листа за проверка што можете да ја примените на речиси секој систем со вештачка интелигенција:
-
Која е целта? Предвидување, рангирање, генерирање, контрола?
-
Од каде доаѓа сигналот за учење? Етикети, самонадгледувани задачи, награди?
-
Која архитектура е употребена? Линеарен модел, дрвен ансамбл, CNN, RNN, трансформатор [3]?
-
Како е оптимизирано? Варијации на спуштање на градиент/задниот дел [2]?
-
Каков режим на податоци? Мал означен сет, океан од неозначен текст, симулирана средина?
-
Кои се начините на дефект и заштитните мерки? Пристрасност, отстапување, халуцинација, латенција, мапирање на трошоците според GOVERN-MAP-MEASURE-MANAGE на NIST [4].
Ако можете да одговорите на овие прашања, тогаш во основа го разбирате системот - останатото се детали за имплементацијата и познавање на доменот.
Брзи извори што вреди да се обележат 🔖
-
Вовед во концептите за машинско учење (IBM) на едноставен јазик [1]
-
Обратно размножување со дијаграми и блага математика [2]
-
Хартијата за трансформатор што го промени моделирањето на секвенцата [3]
-
Рамка за управување со ризици од вештачка интелигенција на NIST (практично управување) [4]
-
Учебник за канонско засилување на учењето (бесплатен) [5]
Најчесто поставувани прашања за молња круг ⚡
Дали вештачката интелигенција е само статистика?
Тоа е статистика плус оптимизација, пресметување, инженерство на податоци и дизајн на производи. Статистиката е скелетот; останатото е мускул.
Дали поголемите модели секогаш победуваат?
Скалирањето помага, но квалитетот на податоците, евалуацијата и ограничувањата за распоредување честопати се поважни. Најмалиот модел што ја постигнува вашата цел е обично најдобар за корисниците и паричниците.
Може ли вештачката интелигенција да разбере?
Дефинирајте го разбирањето . Моделите ја доловуваат структурата на податоците и импресивно генерализираат; но тие имаат слепи точки и можат со сигурност да грешат. Третирајте ги како моќни алатки - а не како мудреци.
Дали ерата на трансформаторите е засекогаш?
Веројатно не засекогаш. Таа е доминантна сега бидејќи вниманието се паралелизира и добро се скалира, како што покажа оригиналниот труд [3]. Но, истражувањата продолжуваат.
Како функционира вештачката интелигенција? Предолго, не прочитав 🧵
-
Вештачката интелигенција учи шеми од податоци, ги минимизира загубите и ги генерализира на нови влезни податоци [1,2].
-
Надгледувано, ненадгледувано, самонадгледувано и зајакнувачко учење се главните начини на обука; RL учи од награди [5].
-
Невронските мрежи користат обратна пропагација и градиентно спуштање за ефикасно прилагодување на милиони параметри [2].
-
Трансформаторите доминираат во многу секвенцијални задачи бидејќи самовниманието ги доловува односите паралелно во размер [3].
-
Вештачката интелигенција во реалниот свет е процес на поврзување - од поставување проблеми преку распоредување и управување - а рамката на NIST ве држи искрени во врска со ризикот [4].
Ако некој повторно праша „ Како функционира вештачката интелигенција?“ , можете да се насмевнете, да сркате кафе и да кажете: таа учи од податоци, ги оптимизира загубите и користи архитектури како трансформатори или ансамбли од дрвја во зависност од проблемот. Потоа додадете намигнување, бидејќи тоа е едноставно и прикриено завршено. 😉
Референци
[1] IBM - Што е машинско учење?
прочитај повеќе
[2] Мајкл Нилсен - Како функционира алгоритмот за обратно размножување
прочитај повеќе
[3] Васвани и др. - Вниманието е сè што ви треба (arXiv)
прочитај повеќе
[4] NIST - Рамка за управување со ризици од вештачка интелигенција (AI RMF 1.0)
прочитај повеќе
[5] Сатон и Барто - Засилено учење: Вовед (2-ро издание)
прочитај повеќе