Како учи вештачката интелигенција?

Како учи вештачката интелигенција?

Како учи вештачката интелигенција?, ова упатство ги разоткрива големите идеи на едноставен јазик - со примери, мали заобиколувања и неколку несовршени метафори кои сепак помагаат. Ајде да се фатиме за тоа. 🙂

Статии што можеби ќе ве интересираат по ова:

🔗 Што е предикативна вештачка интелигенција
Како предикативните модели ги предвидуваат резултатите користејќи историски податоци и податоци во реално време.

🔗 Кои индустрии ќе ги наруши вештачката интелигенција
Сектори кои најверојатно се трансформирани од автоматизација, аналитика и агенти.

🔗 Што значи GPT?
Јасно објаснување на акронимот GPT и неговото потекло.

🔗 Што се вештини за вештачка интелигенција
Основни компетенции за градење, распоредување и управување со системи со вештачка интелигенција.


Па, како го прави тоа? ✅

Кога луѓето прашуваат Како учи вештачката интелигенција?, тие обично мислат: како моделите стануваат корисни, наместо само фенси математички играчки. Одговорот е рецепт:

  • Јасна цел - функција на загуба што дефинира што значи „добро“. [1]

  • Квалитетни податоци - разновидни, чисти и релевантни. Количината помага; разновидноста помага повеќе. [1]

  • Стабилна оптимизација - спуштање по градиент со трикови за да се избегне нишање од карпа. [1], [2]

  • Генерализација - успех на нови податоци, не само на множеството за обука. [1]

  • Повратни јамки - евалуација, анализа на грешки и итерација. [2], [3]

  • Безбедност и сигурност - заштитни огради, тестирање и документација за да не биде хаос. [4]

За пристапни основи, класичниот текст за длабинско учење, визуелно-пријателските белешки од курсот и практичниот брз курс ги опфаќаат основните работи без да ве дават во симболи. [1]–[3]


Како учи вештачката интелигенција? Краткиот одговор на едноставен англиски јазик ✍️

Моделот со вештачка интелигенција започнува со случајни вредности на параметрите. Тој прави предвидување. Вие го оценувате тоа предвидување со загуба . Потоа ги поттурнувате тие параметри за да ја намалите загубата користејќи градиенти . Повторувајте ја оваа јамка низ многу примери сè додека моделот не престане да се подобрува (или не ви снема грицки). Тоа е јамката за обука во еден здив. [1], [2]

Ако сакате малку поголема прецизност, видете ги деловите за градиентно спуштање и обратно размножување подолу. За брза, сварлива позадина, кратки предавања и лабораториски вежби се широко достапни. [2], [3]


Основи: податоци, цели, оптимизација 🧩

  • Податоци : Влезни податоци (x) и цели (y). Колку се пошироки и почисти податоците, толку е поголема вашата шанса за генерализација. Курирањето на податоци не е гламурозно, но е неопеан херој. [1]

  • Модел : Функција (f_\theta(x)) со параметри (\theta). Невронските мрежи се стекови од едноставни единици кои се комбинираат на комплицирани начини - Лего коцки, но помеки. [1]

  • Цел : Загуба (L(f_\theta(x), y)) што ја мери грешката. Примери: средна квадратна грешка (регресија) и вкрстена ентропија (класификација). [1]

  • Оптимизација : Користете (стохастичко) градиентно спуштање за ажурирање на параметрите: (\theta \leftarrow \theta - \eta \nabla_\theta L). Стапката на учење (\eta): преголема и отскокнувате наоколу; премала и ве дреме вечно. [2]

За чисти воведи во функциите за губење и оптимизацијата, класичните белешки за триковите и стапиците за тренирање се одличен преглед. [2]


Надгледувано учење: учете од означени примери 🎯

Идеја : Покажете ги моделните парови на влез и точен одговор. Моделот учи пресликување (x \десна стрелка y).

  • Вообичаени задачи : класификација на слики, анализа на сентименти, табеларно предвидување, препознавање на говор.

  • Типични загуби : вкрстена ентропија за класификација, средна квадратна грешка за регресија. [1]

  • Стапици : шум од етикети, нерамнотежа во класи, истекување на податоци.

  • Поправки : стратифицирано земање примероци, робусни загуби, регуларизација и поразновидно собирање податоци. [1], [2]

Врз основа на децениски бенчмарки и производствена пракса, надгледуваното учење останува работна сила бидејќи резултатите се предвидливи, а метриките се едноставни. [1], [3]


Ненадгледувано и самонадгледувано учење: научете ја структурата на податоците 🔍

Без надзор учи шеми без етикети.

  • Групирање : групирање на слични точки - k-средствата е едноставно и изненадувачки корисно.

  • Намалување на димензионалноста : компресирање на податоците во основни насоки - PCA е алатката за премин.

  • Моделирање на густина/генеративно моделирање : научете ја самата дистрибуција на податоци. [1]

Самонадгледувањето е модерниот мотор: моделите создаваат сопствен надзор (маскирано предвидување, контрастно учење), дозволувајќи ви да се обучувате однапред на океани од неозначени податоци и подоцна да ги дотерувате. [1]


Засилувачко учење: учење преку правење и добивање повратни информации 🕹️

Агентот комуницира со околината , добива награди и учи политика ја максимизира долгорочната награда.

  • Основни делови : состојба, акција, награда, политика, вредносна функција.

  • Алгоритми : Q-учење, градиенти на политики, актер-критичар.

  • Истражување наспроти експлоатација : пробајте нови работи или повторно употребете го она што функционира.

  • Доделување на кредити : која акција предизвикала кој резултат?

Човечките повратни информации можат да ја водат обуката кога наградите се неуредни - рангирањето или преференциите помагаат во обликувањето на однесувањето без рачно кодирање на совршената награда. [5]


Длабоко учење, заднинско учење и градиентно спуштање - срцето што чука 🫀

Невронските мрежи се композиции од едноставни функции. За да учат, тие се потпираат на обратно пропагирање :

  1. Премин напред : пресметува предвидувања од влезните податоци.

  2. Загуба : мерење на грешката помеѓу предвидувањата и целите.

  3. Премин наназад : примени го правилото на синџирот за да се пресметаат градиентите на загубата во однос на секој параметар.

  4. Ажурирање : поместување на параметрите наспроти градиентот со помош на оптимизатор.

Варијанти како што се моментумот, RMSProp и Adam го прават тренингот помалку темпераментен. Методите на регуларизација како што се откажување од тренинг , намалување на телесната тежина и рано запирање им помагаат на моделите да генерализираат наместо да меморираат. [1], [2]


Трансформери и внимание: зошто модерните модели се чувствуваат паметни 🧠✨

Трансформаторите заменија многу повторливи поставувања во јазикот и визијата. Клучниот трик е самовниманието , кое му овозможува на моделот да ги процени различните делови од својот влез во зависност од контекстот. Позициските кодирања го обработуваат редоследот, а вниманието со повеќе глави му овозможува на моделот да се фокусира на различни врски одеднаш. Скалирањето - поразновидни податоци, повеќе параметри, подолга обука - честопати помага, со намалени приноси и зголемени трошоци. [1], [2]


Генерализација, преферирање и танцот на пристрасност-варијанса 🩰

Моделот може да го помине сетот за обука, а сепак да доживее неуспех во реалниот свет.

  • Префитирање : меморира шум. Грешка при тренирање се намалува, грешка при тестирање се зголемува.

  • Недоволно вклопување : премногу едноставно; промашува сигнал.

  • Компромис помеѓу пристрасноста и варијансата : сложеноста ја намалува пристрасноста, но може да ја зголеми варијансата.

Како подобро да генерализирате:

  • Поразновидни податоци - различни извори, домени и рабни случаи.

  • Регуларизација - напуштање, намалување на телесната тежина, зголемување на податоците.

  • Соодветна валидација - чисти тест сетови, вкрстена валидација за мали податоци.

  • Мониторинг на поместување - дистрибуцијата на вашите податоци ќе се менува со текот на времето.

Праксата што е свесна за ризикот ги дефинира овие активности како активности на животниот циклус - управување, мапирање, мерење и управување - а не како еднократни контролни листи. [4]


Метрики што се важни: како знаеме дека учењето се случило 📈

  • Класификација : точност, прецизност, отповикување, F1, ROC AUC. Неурамнотежените податоци бараат криви на прецизност-отповикување. [3]

  • Регресија : MSE, MAE, (R^2). [1]

  • Рангирање/пребарување : MAP, NDCG, recall@K. [1]

  • Генеративни модели : збунетост (јазик), сина/црвена/цидерална (текст), резултати базирани на CLIP (мултимодални) и, што е клучно, човечки евалуации. [1], [3]

Изберете метрики што се усогласуваат со влијанието врз корисниците. Мало зголемување на точноста може да биде ирелевантно ако лажните позитиви се вистинската цена. [3]


Работен тек на обука во реалниот свет: едноставен план 🛠️

  1. Формулирајте го проблемот - дефинирајте влезни податоци, излезни податоци, ограничувања и критериуми за успех.

  2. Проток на податоци - собирање, етикетирање, чистење, разделување, зголемување.

  3. Основна линија - започнете едноставно; линеарните или основните линии од дрво се шокантно конкурентни.

  4. Моделирање - пробајте неколку семејства: дрвја засилени со градиент (табеларни), CNN-и (слики), трансформатори (текст).

  5. Обука - распоред, стратегии за брзина на учење, контролни точки, мешана прецизност доколку е потребно.

  6. Евалуација - аблации и анализа на грешки. Погледнете ги грешките, не само просекот.

  7. Распоредување - процес на инференција, следење, евидентирање, план за враќање на претходните податоци.

  8. Итерирајте - подобри податоци, фино подесување или прилагодувања на архитектурата.

Мини случај : проект за класификатор на е-пошта започна со едноставна линеарна основна линија, а потоа беше фино подесен претходно обучен трансформатор. Најголемата победа не беше моделот - туку заострувањето на рубриката за етикетирање и додавањето недоволно застапени категории на „рабови“. Откако тие беа опфатени, валидацијата F1 конечно ги следеше перформансите во реалниот свет. (Вашето идно јас: многу благодарно.)


Квалитет на податоците, етикетирање и суптилната уметност да не се лажеш себеси 🧼

Внесување ѓубре, излегување жалење. Упатствата за етикетирање треба да бидат конзистентни, мерливи и ревидирани. Договорот меѓу анотаторите е важен.

  • Напишете рубрики со примери, аголни случаи и прекинувачи на тај-брејкери.

  • Ревизија на множества податоци за дупликати и речиси дупликати.

  • Следете го потеклото - од каде доаѓа секој пример и зошто е вклучен.

  • Мерејте ја покриеноста на податоците во однос на сценарија од реални корисници, а не само на уреден репер.

Овие совршено се вклопуваат во пошироки рамки за уверување и управување што всушност можете да ги операционализирате. [4]


Трансфер на учење, фино подесување и адаптери - повторно искористете го тешкото кревање ♻️

Претходно обучените модели учат општи репрезентации; финото подесување ги прилагодува на вашата задача со помалку податоци.

  • Екстракција на карактеристики : замрзнете го 'рбетот, тренирајте мала глава.

  • Целосно фино подесување : ажурирање на сите параметри за максимален капацитет.

  • Методи кои се ефикасни според параметрите : адаптери, ажурирања со низок ранг во стилот на LoRA - добри кога пресметувањето е ограничено.

  • Адаптација на домени : усогласување на вградувањата низ домени; мали промени, големи придобивки. [1], [2]

Овој модел на повторна употреба е причината зошто современите проекти можат да се движат брзо без херојски буџети.


Безбедност, сигурност и порамнување - непотребните делови 🧯

Учењето не е само прашање на точност. Исто така, ви се потребни модели кои се робусни, фер и усогласени со наменетата употреба.

  • Адверсаријална робусност : малите пертурбации можат да ги измамат моделите.

  • Пристрасност и праведност : мерење на перформансите на подгрупите, а не само на вкупните просеци.

  • Интерпретабилност : припишувањето на карактеристиките и испитувањето ви помагаат да видите зошто .

  • Човек во јамка : патеки за ескалација за двосмислени или одлуки со големо влијание. [4], [5]

Учењето базирано на преференции е еден прагматичен начин да се вклучи човечката проценка кога целите се нејасни. [5]


Најчесто поставувани прашања во една минута - брзо огномет ⚡

  • Значи, навистина, како учи вештачката интелигенција? Преку итеративна оптимизација наспроти загуба, со градиенти што ги водат параметрите кон подобри предвидувања. [1], [2]

  • Дали повеќе податоци секогаш помагаат? Обично, сè додека не се намалат приносите. Разновидноста честопати го надминува суровиот волумен. [1]

  • Што ако етикетите се неуредни? Користете методи отпорни на бучава, подобри рубрики и размислете за самонадгледувана претходна обука. [1]

  • Зошто доминираат трансформаторите? Вниманието добро се скалира и ги опфаќа зависностите на долг рок; алатките се зрели. [1], [2]

  • Како да знам дека сум завршил со обуката? Загубите при валидација се намалуваат, метриките се стабилизираат, а новите податоци се однесуваат како што се очекуваше - потоа се следи дали има отстапувања. [3], [4]


Табела за споредба - алатки што всушност можете да ги користите денес 🧰

Малку чудно намерно. Цените се за основни библиотеки - обуката на големо има инфраструктурни трошоци, очигледно.

Алатка Најдобро за Цена Зошто функционира добро
PyTorch Истражувачи, градители Бесплатно - отворено src Динамични графикони, силен екосистем, одлични упатства.
ТензорФлоу Продукциски тимови Бесплатно - отворено src Услуга за зрели лица, TF Lite за мобилни телефони; голема заедница.
scikit-learn Табеларни податоци, основни линии Бесплатно Чист API, брз за итерација, одлична документација.
Керас Брзи прототипови Бесплатно API на високо ниво преку TF, читливи слоеви.
JAX Моќни корисници, истражување Бесплатно Автоматска векторизација, XLA брзина, елегантни математички вибрации.
Трансформери со прегрнување на лице НЛП, визија, аудио Бесплатно Претходно обучени модели, едноставно фино подесување, одлични главчини.
Молња Работни процеси за обука Слободно јадро Вклучени се структура, евиденција, повеќекратни графички процесорски батерии.
XGBoost Табеларна конкурентска Бесплатно Силни основни линии, честопати победуваат на структурирани податоци.
Тежини и пристрасности Следење на експериментот Слободен степен Репродуктивност, споредување на трчања, побрзи јамки на учење.

Авторитативна документација за почеток: PyTorch, TensorFlow и уредното упатство за корисници на scikit-learn. (Изберете една, изградете нешто мало, повторувајте.)


Длабоко нурнување: практични совети што ви заштедуваат време во реално време 🧭

  • Распореди со брзина на учење : косинусно распаѓање или еден циклус можат да го стабилизираат тренингот.

  • Големина на серијата : поголемата не е секогаш подобра - следете ги метриките за валидација, а не само пропусноста.

  • Тежина на иницијализација : модерните стандардни вредности се во ред; ако обуката запре, повторно посетете ја иницијализацијата или нормализирајте ги раните слоеви.

  • Нормализација : нормата на серијата или нормата на слојот може драматично да ја изедначи оптимизацијата.

  • Зголемување на податоците : превртување/сечење/треперење на бојата за слики; маскирање/мешање на токени за текст.

  • Анализа на грешки : групирањето на грешките по случај на работ на еден дел може да повлече сè надолу.

  • Репро : поставување семиња, евидентирање на хиперпараметри, зачувување на контролни точки. Во иднина ќе бидете благодарни, ветувам. [2], [3]

Кога се сомневате, вратете се на основите. Основите остануваат компас. [1], [2]


Мала метафора што речиси функционира 🪴

Тренирањето модел е како наводнување растение со чудна млазница. Премногу вода што преполнува локва. Премалку суша што не е доволно присутна. Соодветен каденца, со сончева светлина од добри податоци и хранливи материи од чисти објективи, и добивате раст. Да, малку евтино, но се држи.


Како учи вештачката интелигенција? Како сè да се спои 🧾

Моделот започнува случајно. Преку ажурирања базирани на градиент, воден од загуба, ги усогласува своите параметри со шемите во податоците. Се појавуваат репрезентации што го олеснуваат предвидувањето. Евалуацијата ви кажува дали учењето е реално, а не случајно. А итерацијата - со заштитни огради за безбедност - ја претвора демонстрацијата во сигурен систем. Тоа е целата приказна, со помалку мистериозни вибрации отколку што изгледаше на почетокот. [1]–[4]


Заклучоци - Предолго, не прочитав 🎁

  • Како учи вештачката интелигенција? Со минимизирање на загубата со градиенти во многу примери. [1], [2]

  • Добрите податоци, јасните цели и стабилната оптимизација го прават учењето поцелосно. [1]–[3]

  • Генерализацијата е посилна од меморирањето - секогаш. [1]

  • Безбедноста, евалуацијата и итерацијата ги претвораат паметните идеи во сигурни производи. [3], [4]

  • Започнете едноставно, мерете добро и подобрете со поправање на податоците пред да се впуштите во егзотични архитектури. [2], [3]


Референци

  1. Гудфелоу, Бенџо, Курвил - Длабоко учење (бесплатен онлајн текст). Линк

  2. Стенфорд CS231n - Конволуциони невронски мрежи за визуелно препознавање (белешки и задачи од курсот). Линк

  3. Google - Брз курс за машинско учење: Класификациски метрики (точност, прецизност, потсетување, ROC/AUC) . Линк

  4. NIST - Рамка за управување со ризик од вештачка интелигенција (AI RMF 1.0) . Линк

  5. OpenAI - Учење од човечки преференции (преглед на обука базирана на преференции). Линк

Пронајдете ја најновата вештачка интелигенција во официјалната продавница за асистенти за вештачка интелигенција

За нас

Назад кон блогот