Вештачката интелигенција е насекаде - тивко сортира, оценува и предлага. Тоа е корисно… сè додека не ги поттурне некои групи напред, а другите не ги остави зад себе. Ако сте се прашувале што е пристрасност на вештачката интелигенција , зошто се појавува дури и во усовршени модели и како да ја намалите без да ги намалите перформансите, ова упатство е за вас.
Статии што можеби ќе ве интересираат по оваа:
🔗 Што значи GPT?
Едноставен англиски опис на името и потеклото на GPT.
🔗 Што е предикативна вештачка интелигенција
Како предикативните модели ги предвидуваат резултатите од историски и живи податоци.
🔗 Што е вештачка интелигенција со отворен код
Дефиниција, клучни придобивки, предизвици, лиценци и примери на проекти.
🔗 Како да ја вклучите вештачката интелигенција во вашиот бизнис
Чекор-по-чекор план за управување со промени, алатки, работни процеси и основни информации.
Брза дефиниција: што е пристрасност на вештачката интелигенција?
Пристрасноста кон вештачката интелигенција е кога резултатите на системот за вештачка интелигенција систематски фаворизираат или ставаат во неповолна положба одредени луѓе или групи. Често произлегува од неурамнотежени податоци, тесни избори на мерења или поширокиот контекст во кој е изграден и користен системот. Пристрасноста не е секогаш злонамерна, но може брзо да ги зголеми штетите ако не се контролира. [1]
Корисна разлика: пристрасноста е искривувањето во донесувањето одлуки, додека дискриминацијата е штетниот ефект што искривувањето може да го произведе во светот. Не можете секогаш да ја отстраните целата пристрасност, но мора да ја управувате за да не создаде неправедни резултати. [2]
Зошто разбирањето на предрасудите всушност те прави подобар 💡
Чудно, нели? Но, знаењето што е пристрасност на вештачката интелигенција ве прави:
-
Подобри во дизајнот - порано ќе ги забележите кревките претпоставки.
-
Подобар во управувањето - ќе ги документирате компромисите наместо да ги препишувате рачно.
-
Подобри во разговорите - со лидери, регулатори и засегнати луѓе.
Исто така, учењето на јазикот на метриките и политиките за праведност заштедува време подоцна. Искрено, тоа е како да купите мапа пред патување - несовршено, но многу подобро од вибрации. [2]
Видови пристрасност на вештачката интелигенција што всушност ќе ги видите во дивината 🧭
Пристрасноста се појавува низ целиот животен циклус на вештачката интелигенција. Вообичаени шеми со кои се среќаваат тимовите:
-
Пристрасност при земање примероци од податоци - некои групи се недоволно застапени или недостасуваат.
-
Пристрасност кон етикетите - историските етикети кодираат предрасуди или бучни човечки проценки.
-
Пристрасност на мерењето - посредници кои не го доловуваат она што навистина го цените.
-
Пристрасност при евалуација - тест множествата пропуштаат одредени популации или контексти.
-
Пристрасност при распоредување - добар лабораториски модел користен во погрешно поставување.
-
Системски и човечки предрасуди - пошироки општествени модели и тимски избори кои продираат во технологијата.
Корисен ментален модел од телата за стандардизација ги групира пристрасностите во човечки, технички и системски категории и препорачува социо-техничко управување, а не само измени во моделот. [1]
Каде што пристрасноста се провлекува низ целиот свет 🔍
-
Формирање на проблемот - дефинирајте ја целта премногу тесно и ги исклучувате луѓето на кои производот треба да им служи.
-
Извор на податоци - историските податоци честопати кодираат нееднаквости од минатото.
-
Избор на функции - прокси-серверите за чувствителни атрибути можат да рекреираат чувствителни атрибути.
-
Обука - целите оптимизираат за просечна точност, а не за еднаквост.
-
Тестирање - ако вашиот сет на очекувања е искривен, и вашите метрики се искривени.
-
Мониторинг - промените кај корисниците или контекстот можат повторно да воведат проблеми.
Регулаторите нагласуваат документирање на ризиците за фер работење во текот на целиот животен циклус, а не само во времето на прилагодување на моделот. Тоа е вежба во која учествуваат сите. [2]
Како да ја мериме праведноста без да се вртиме во круг? 📏
Не постои една метрика што ги регулира сите. Изберете врз основа на вашиот случај на употреба и штетите што сакате да ги избегнете.
-
Демографски паритет - стапките на селекција треба да бидат слични низ групите. Добро за прашања за распределба, но може да биде во конфликт со целите за точност. [3]
-
Изедначени шанси - стапките на грешки како што се лажно позитивни и вистински позитивни резултати треба да бидат слични. Корисно кога цената на грешките се разликува во зависност од групата. [3]
-
Калибрација - за ист резултат, исходите треба да бидат подеднакво веројатни во сите групи. Корисно кога резултатите влијаат врз човечките одлуки. [3]
Комплетите алатки го прават ова практично со пресметување на празнини, графикони и контролни табли за да можете да престанете да нагаѓате. [3]
Практични начини за намалување на пристрасноста кои всушност функционираат 🛠️
Размислете за слоевити ублажувања наместо за еднократно решение:
-
Ревизии и збогатување на податоци - идентификување на празнини во покриеноста, собирање побезбедни податоци каде што е законско, земање примероци од документи.
-
Претежно земање примероци и повторно земање на тежина - прилагодете ја распределбата на обуката за да го намалите искривувањето.
-
Ограничувања во текот на обработката - додадете цели за праведност на целта, така што моделот директно ќе ги научи компромисите.
-
Адверсаријално дебатирање - тренирајте го моделот така што чувствителните атрибути не се предвидливи од внатрешните претставувања.
-
Пост-обработка - калибрирајте ги праговите на одлучување по група кога е соодветно и законско.
-
Проверки со човечки ресурси во јамката - спарување модели со објаснети резимеа и патеки на ескалација.
Библиотеките со отворен код како AIF360 и Fairlearn обезбедуваат и метрики и алгоритми за ублажување. Тие не се магични, но ќе ви дадат систематска почетна точка. [5][3]
Доказ од реалниот свет дека пристрасноста е важна 📸💳🏥
-
Анализа на лице - широко цитираното истражување документираше големи нееднаквости во точноста кај половите и групите на типови кожа во комерцијалните системи, туркајќи ја областа кон подобри практики за евалуација. [4]
-
Одлуки со висок ризик (кредит, вработување, домување) - дури и без намера, пристрасните исходи можат да бидат во спротивност со обврските за праведност и антидискриминација. Превод: вие сте одговорни за ефектите, а не само за кодот. [2]
Кратка анегдота од пракса: во анонимизирана ревизија на екранот за вработување, еден тим пронајде празнини во отповикувањето на жените на технички позиции. Едноставни чекори - подобри стратифицирани поделби, преглед на карактеристиките и одредување на праговите по група - го затворија поголемиот дел од јазот со мал компромис во точноста. Клучот не беше еден трик; тоа беше повторувачка јамка за мерење-ублажување-следење.
Политика, закон и управување: како изгледа „доброто“ 🧾
Не мора да бидете адвокат, но треба да дизајнирате за праведност и објаснување:
-
Принципи на фер игра - вредности ориентирани кон човекот, транспарентност и недискриминација низ целиот животен циклус. [1]
-
Заштита на податоци и еднаквост - кога се вклучени лични податоци, очекувајте обврски поврзани со праведност, ограничување на целта и индивидуални права; може да се применат и секторски правила. Нацртајте ги вашите обврски рано. [2]
-
Управување со ризик - користете структурирани рамки за идентификување, мерење и следење на пристрасноста како дел од пошироките програми за ризик од вештачка интелигенција. Запишете го. Прегледајте го. Повторете го. [1]
Малку настрана: документацијата не е само бирократија; тоа е како докажувате дека навистина сте ја завршиле работата ако некој ве праша.
Табела за споредба: алатки и рамки за скротување на пристрасноста на вештачката интелигенција 🧰📊
| Алатка или рамка | Најдобро за | Цена | Зошто функционира... некако |
|---|---|---|---|
| AIF360 | Научници за податоци кои сакаат метрики + ублажувања | Бесплатно | Многу алгоритми на едно место; брзо до прототипирање; помага во почетната фаза и споредување на поправките. [5] |
| Ферлирн | Тимови кои ја балансираат точноста со ограничувањата за праведност | Бесплатно | Јасни API-ја за проценка/ублажување; корисни визуелизации; прилагодено за scikit-learn. [3] |
| NIST AI (SP 1270) | Ризик, усогласеност и лидерство | Бесплатно | Заеднички јазик за управување со човечки/технички/системски предрасуди и животниот циклус. [1] |
| ICO насоки | Тимови од Велика Британија кои ракуваат со лични податоци | Бесплатно | Практични контролни листи за ризици од праведност/дискриминација низ целиот животен циклус на вештачката интелигенција. [2] |
Секое од овие ви помага да одговорите на прашањето што е пристрасност кон вештачката интелигенција во вашиот контекст, давајќи ви структура, метрики и споделен речник.
Краток, малку наметлив работен тек 🧪
-
Наведете ја штетата што сакате да ја избегнете - штета во распределбата, нееднаквости во стапката на грешки, повреда на достоинството итн.
-
Изберете метрика усогласена со таа штета - на пр., изедначени шанси ако паритетот на грешката е важен. [3]
-
Извршете ги основните вредности со денешните податоци и модел. Зачувајте извештај за праведност.
-
Прво пробајте поправки со помалку триење - подобри поделби на податоци, одредување на прагови или препондерирање.
-
Ескалирајте до ограничувања во процес на обработка доколку е потребно.
-
Повторно евалуирајте ги групите на задржување што претставуваат реални корисници.
-
Следење во производството - се случуваат промени во дистрибуцијата; исто така треба да се случуваат и контролните табли.
-
Документирајте ги компромисите - праведноста е контекстуална, затоа објаснете зошто ја избравте парноста X наместо парноста Y. [1][2]
Регулаторите и телата за стандардизација постојано нагласуваат дека размислувањето за животниот циклус е со причина. Тоа функционира. [1]
Совети за комуникација за засегнатите страни 🗣️
-
Избегнувајте само математички објаснувања - прво покажете едноставни графикони и конкретни примери.
-
Користете јасен јазик - кажете што моделот би можел да направи неправедно и кој би можел да биде засегнат.
-
Површински компромиси - ограничувањата на праведноста можат да ја променат точноста; тоа не е грешка ако ја намалува штетата.
-
Планирајте непредвидени ситуации - како да паузирате или вратите назад ако се појават проблеми.
-
Поканете контрола - надворешната ревизија или црвено-тимирањето откриваат слепи точки. Никој не го сака тоа, но помага. [1][2]
Најчесто поставувани прашања: што е всушност пристрасност на вештачката интелигенција? ❓
Не е ли пристрасноста само лоши податоци?
Не само тоа. Податоците се важни, но изборот на моделирање, дизајнот на евалуација, контекстот на распоредување и тимските стимулации влијаат на резултатите. [1]
Можам ли целосно да ги елиминирам предрасудите?
Обично не. Целта ви е да ги управувате предрасудите за да не предизвикаат неправедни ефекти - размислувајте за намалување и управување, а не за совршенство. [2]
Која метрика за праведност треба да ја користам?
Изберете врз основа на типот на штета и правилата за домен. На пример, ако лажните позитивни резултати ѝ штетат на групата повеќе, фокусирајте се на паритетот на стапката на грешки (изедначени шанси). [3]
Дали ми е потребна правна ревизија?
Ако вашиот систем ги допира можностите или правата на луѓето, да. Правилата ориентирани кон потрошувачите и еднаквоста можат да се применат на алгоритамските одлуки, а вие треба да ја покажете вашата работа. [2]
Заклучни забелешки: Предолго, не прочитав 🧾✨
Ако некој ве праша што е пристрасност на вештачката интелигенција , еве го одговорот што лесно се лепи: тоа е систематско искривување на резултатите од вештачката интелигенција што може да произведе неправедни ефекти во реалниот свет. Ја дијагностицирате со метрики соодветни на контекстот, ја ублажувате со повеќеслојни техники и ја регулирате низ целиот животен циклус. Не е само еден баг што треба да се потисне - тоа е прашање на производ, политика и луѓе што бара постојан ритам на мерење, документација и понизност. Претпоставувам дека нема сребрен куршум... но постојат пристојни контролни листи, искрени компромиси и подобри навики. И да, неколку емотикони никогаш не штетат. 🙂
Референци
-
Специјална публикација на NIST 1270 - Кон стандард за идентификување и управување со пристрасност во вештачката интелигенција . Линк
-
Канцеларија на комесарот за информации на Обединетото Кралство - Што е со праведноста, пристрасноста и дискриминацијата? Линк
-
Документација за Fairlearn - Заеднички метрики за праведност (демографски паритет, изедначени коефициенти, калибрација). Линк
-
Буоламвини, Ј. и Гебру, Т. (2018). Нијанси на пол: Меѓусекциски разлики во точноста во комерцијалната родова класификација . FAT* / PMLR. Врска
-
IBM Research - Претставување на AI Fairness 360 (AIF360) . Линк