Краток одговор: Вештачката интелигенција отиде предалеку кога се користи во одлуки со висок ризик, надзор или убедување без цврсти ограничувања, информирана согласност и вистинско право на жалба. Повторно ја преминува границата кога длабоките лаги и скалабилните измами ја прават довербата да се чувствува како коцка. Ако луѓето не можат да утврдат дека вештачката интелигенција одиграла улога, не можат да сфатат зошто некоја одлука завршила на тој начин или не можат да се откажат, веќе е предалеку.
Клучни заклучоци:
Граници: Дефинирајте што системот не може да направи, особено кога неизвесноста е голема.
Одговорност: Обезбедете луѓето да можат да ги поништат резултатите без казни или временски стапици.
Транспарентност: Кажете им на луѓето кога е вклучена вештачката интелигенција и зошто дошла до своите одлуки.
Оспорливост: Обезбедете брзи, функционални правци на жалба и јасни начини за корекција на погрешни податоци.
Отпорност на злоупотреба: Додадете потекло, ограничувања на стапката и контроли за да ги спречите измамите и злоупотребата.
„Дали вештачката интелигенција отишла предалеку?“
Чудното е што преминувањето на границите не е секогаш очигледно. Понекогаш е гласно и впечатливо, како измама со длабоки лаги. ( FTC , FBI ) Други пати е тивко - автоматизирана одлука што го турка вашиот живот настрана без никакво објаснување, а вие дури и не сфаќате дека сте биле „оценети“. ( UK ICO , GDPR чл. 22 )
Значи… Дали вештачката интелигенција отишла предалеку? На некои места, да. На други места, не отишла доволно далеку - затоа што се користи без непривлечните, но суштински безбедносни огради што ги прават алатките да се однесуваат како алатки наместо како рулет со пријателски кориснички интерфејс. 🎰🙂 ( NIST AI RMF 1.0 , Закон за вештачка интелигенција на ЕУ )
Статии што можеби ќе ве интересираат по оваа:
🔗 Зошто вештачката интелигенција може да биде штетна за општеството
Клучни социјални ризици: предрасуди, работни места, приватност и концентрација на моќ.
🔗 Дали вештачката интелигенција е лоша за животната средина? Скриени влијанија
Како обуката, центрите за податоци и употребата на енергија ги зголемуваат емисиите.
🔗 Дали вештачката интелигенција е добра или лоша? Предности и недостатоци
Урамнотежен преглед на придобивките, ризиците и компромисите во реалниот свет.
🔗 Зошто вештачката интелигенција се смета за лоша: темната страна
Истражува злоупотреба, манипулација, безбедносни закани и етички проблеми.
Што мислат луѓето кога велат „Дали вештачката интелигенција отишла предалеку?“ 😬
Повеќето луѓе не прашуваат дали вештачката интелигенција е „свесна“ или „презема контрола“. Тие посочуваат на едно од овие:
-
Вештачката интелигенција се користи таму каде што не треба да се користи. (Особено одлуки со висок ризик.) ( Анекс III од Законот на ЕУ за вештачка интелигенција , член 22 од GDPR )
-
Вештачката интелигенција се користи без согласност. (Вашите податоци, вашиот глас, вашето лице… изненадување.) ( UK ICO , GDPR чл. 5 )
-
Вештачката интелигенција станува премногу добра во манипулирањето со вниманието. (Фидови + персонализација + автоматизација = леплива.) ( Принципи на ОЕЦД за вештачка интелигенција )
-
Вештачката интелигенција ја прави вистината да изгледа опционална. (Дипфејкс, лажни рецензии, синтетички „експерти“.) ( Европска комисија , FTC , C2PA )
-
Вештачката интелигенција концентрира моќ. (Неколку системи го обликуваат она што секој го гледа и може да го направи.) ( UK CMA )
Тоа е суштината на „Дали вештачката интелигенција отишла предалеку?“. Не е во еден единствен момент. Тоа е натрупување стимулации, кратенки и размислување „ќе го поправиме подоцна“ - што, да бидеме искрени, има тенденција да се преведе во „ќе го поправиме откако некој ќе се повреди“. 😑

Не толку тајната вистина: Вештачката интелигенција е мултипликатор, а не морален актер 🔧✨
Вештачката интелигенција не се буди и не одлучува да биде штетна. Луѓето и организациите ја насочуваат кон неа. Но, таа го множи она што го храните:
-
Корисната намера станува масовно корисна (превод, достапност, сумирање, забележување на медицински шеми).
-
Небрежната намера станува масовно небрежна (пристрасност на обем, автоматизација на грешки).
-
Лошата намера станува масовно лоша (измама, вознемирување, пропаганда, лажно претставување).
Тоа е како да му дадеш мегафон на мало дете. Понекогаш малото дете пее… понекогаш малото дете вреска директно во твојата душа. Не е совршена метафора - малку е глупаво - но поентата е јасна 😅📢.
Што ја прави една верзија на вештачка интелигенција добра во секојдневните услови? ✅🤝
„Добрата верзија“ на вештачката интелигенција не се дефинира според тоа колку е паметна. Таа се дефинира според тоа колку добро се однесува под притисок, неизвесност и искушение (а луѓето се многу искушани од евтина автоматизација). ( NIST AI RMF 1.0 , OECD )
Еве што барам кога некој тврди дека неговата употреба на вештачка интелигенција е одговорна:
1) Јасни граници
-
Што му е дозволено на системот?
-
Што е експлицитно забрането да се прави?
-
Што се случува кога е несигурно?
2) Човечка одговорност која е вистинска, а не декоративна
Човечкото „прегледување“ на резултатите е важно само ако:
-
тие разбираат што разгледуваат и
-
тие можат да го заобиколат без да бидат казнети за забавување на работите.
3) Објаснување на соодветно ниво
Не им е потребна математиката на сите. Луѓето навистина имаат потреба од:
-
главните причини за одлуката,
-
какви податоци беа користени,
-
како да се поднесе жалба, да се исправи или да се откажете. ( UK ICO )
4) Мерливи перформанси - вклучувајќи ги и режимите на дефекти
Не само „точност“, туку:
-
на кого не успева,
-
колку често тивко не успева,
-
што се случува кога светот се менува. ( NIST AI RMF 1.0 )
5) Приватност и согласност што не се „закопани во поставките“
Ако согласноста бара потрага по богатство преку менија… тоа не е согласност. Тоа е дупка во законот со дополнителни чекори 😐🧾. ( GDPR Член 5 , UK ICO )
Табела за споредба: практични начини да се спречи вештачката интелигенција да оди предалеку 🧰📊
Подолу се наведени „најдобрите опции“ во смисла дека тие се вообичаени заштитни огради или оперативни алатки што ги менуваат резултатите (не само вибрациите).
| Алатка / опција | Публика | Цена | Зошто функционира |
|---|---|---|---|
| Преглед на „човекот во јамката“ ( Закон на ЕУ за вештачка интелигенција ) | Тимови кои донесуваат одлуки со висок ризик | ££ (трошок за време) | Ја забавува лошата автоматизација. Исто така, луѓето можат да забележат чудни рабови, понекогаш… |
| Процес на жалба на одлука ( член 22 од GDPR ) | Корисници погодени од одлуките на вештачката интелигенција | Бесплатно | Додава правилен процес. Луѓето можат да исправат погрешни податоци - звучи основно затоа што е основно |
| Дневници за ревизија + следливост ( NIST SP 800-53 ) | Усогласеност, операции, безбедност | £-££ | Ви овозможува да одговорите на прашањето „што се случи?“ по неуспех, наместо да кревате раменици |
| Евалуација на модел + тестирање на пристрасност ( NIST AI RMF 1.0 ) | Тимови за производи + ризик | варира многу | Рано ја фаќа предвидливата штета. Не е совршено, но подобро од погодување |
| Тестирање со црвен тим ( профил на NIST GenAI ) | Безбедност + луѓе за безбедност | £££ | Симулира злоупотреба пред вистинските напаѓачи. Непријатно, но вреди 😬 |
| Минимизирање на податоци ( UK ICO ) | Сите, искрено | £ | Помалку податоци = помалку неред. Исто така, помалку пробиви на безбедноста, помалку незгодни разговори |
| Сигнали за потекло на содржината ( C2PA ) | Платформи, медиуми, корисници | £-££ | Помага да се потврди „дали човек го направил ова?“ - не е сигурно, но го намалува хаосот |
| Ограничувања на стапки + контроли на пристап ( OWASP ) | Даватели на вештачка интелигенција + претпријатија | £ | Веднаш го спречува зголемувањето на злоупотребата. Како пречка за лошите актери |
Да, масата е малку нерамна. Таков е животот. 🙂
Вештачка интелигенција во одлуки со висок ризик: кога оди предалеку 🏥🏦⚖️
Тука работите брзо стануваат сериозни.
Вештачката интелигенција во здравството , финансиите , домувањето , вработувањето , образованието , имиграцијата , кривичната правда - ова се системи каде што: ( Анекс III од Законот за вештачка интелигенција на ЕУ , FDA )
-
Грешката може да чини некого пари, слобода, достоинство или безбедност,
-
а засегнатото лице често има ограничена моќ да возврати ударот.
Големиот ризик не е „Вештачката интелигенција прави грешки“. Големиот ризик е грешките на вештачката интелигенција да станат политика . ( NIST AI RMF 1.0 )
Како изгледа „предалеку“ овде
-
Автоматизирани одлуки без објаснување: „компјутерот вели не.“ ( UK ICO )
-
„Резултатите од ризикот“ се третираат како факти, наместо како претпоставки.
-
Луѓе кои не можат да ги поништат резултатите затоа што менаџментот сака брзина.
-
Податоци кои се неуредни, пристрасни, застарени или едноставно апсолутно погрешни.
Што не треба да биде предмет на преговори
-
Право на жалба (брзо, разбирливо, не е лавиринт). ( Член 22 од GDPR , ICO на Велика Британија )
-
Право да се знае дека вештачката интелигенција била вмешана. ( Европска комисија )
-
Човечки преглед за последователни исходи. ( NIST AI RMF 1.0 )
-
Контрола на квалитетот на податоците - бидејќи ѓубрето влегува, ѓубрето излегува е сè уште болно вистина.
Ако се обидувате да повлечете јасна линија, еве една:
Ако системот со вештачка интелигенција може материјално да го промени нечиј живот, му е потребна истата сериозност што ја очекуваме од другите форми на авторитет. Без „бета тестирање“ на луѓе кои не се регистрирале. 🚫
Дипфејкс, измами и бавната смрт на „Им верувам на моите очи“ 👀🧨
Ова е делот што го прави секојдневниот живот да изгледа… лизгав.
Кога вештачката интелигенција може да генерира:
-
гласовна порака што звучи како член на вашето семејство, ( FTC , FBI )
-
видео од јавна личност која „кажува“ нешто,
-
поплава од лажни прегледи кои изгледаат доволно автентично, ( FTC )
-
лажен LinkedIn профил со лажна работна историја и лажни пријатели…
...не само што овозможува измами. Го ослабува општественото лепило што им овозможува на странците да се координираат. А општеството функционира врз основа на координација на странци. 😵💫
„Предалеку“ не е само лажна содржина
Тоа е асиметријата :
-
Евтино е да се генерираат лаги.
-
Скапо е и бавно е да се потврди вистината.
-
И повеќето луѓе се зафатени, уморни и скролаат.
Што помага (малку)
-
Означувачи за потекло за медиуми. ( C2PA )
-
Триење за виралност - забавување на моменталното масовно споделување.
-
Подобра верификација на идентитетот таму каде што е важно (финансии, владини услуги).
-
Основни навики за „потврдување надвор од опсегот“ за поединци (повикајте се назад, користете шифра, потврдете преку друг канал). ( FTC )
Не е гламурозно. Но, ниту безбедносните појаси се, а јас лично сум доста приврзана кон нив. 🚗
Надзорна тактика: кога вештачката интелигенција тивко претвора сè во сензор 📷🫥
Ова не експлодира како дипфејк. Само се шири.
Вештачката интелигенција го олеснува следново:
-
идентификувајте лица во толпи, ( Закон на ЕУ за вештачка интелигенција , NIST FRVT )
-
шеми на движење на следење,
-
заклучуваат емоции од видео (често лошо, но со сигурност), ( Barrett et al., 2019 , Закон на ЕУ за вештачка интелигенција )
-
предвидете „ризик“ врз основа на однесувањето… или атмосферата во вашето соседство.
И дури и кога е неточно, сепак може да биде штетно бидејќи може да оправда интервенција. Погрешното предвидување сепак може да предизвика реални последици.
Непријатниот дел
Надзорот со вештачка интелигенција често доаѓа завиткан во безбедносна приказна:
-
„Тоа е за спречување на измами.“
-
„Тоа е за безбедност.“
-
„Тоа е за корисничко искуство.“
Понекогаш тоа е вистина. Понекогаш е и удобен изговор за градење системи кои многу тешко се демонтираат подоцна. Како инсталирање еднонасочна врата во сопствената куќа затоа што во тој момент ви изгледала ефикасна. Повторно, не е совршена метафора - малку смешно - но ја чувствувате. 🚪😅
Како изгледа „добро“ овде
-
Строги ограничувања за задржување и споделување.
-
Јасни откажувања.
-
Тесни случаи на употреба.
-
Независен надзор.
-
Да не се користи „детектирање емоции“ за казнување или контрола. Ве молам. 🙃 ( Закон на ЕУ за вештачка интелигенција )
Работа, креативност и проблемот со тивкото осиромашување 🧑💻🎨
Тука дебатата станува лична бидејќи го допира идентитетот.
Вештачката интелигенција може да ги направи луѓето попродуктивни. Исто така, може да ги натера луѓето да се чувствуваат заменливи. И двете можат да бидат вистинити, во исто време, во истата недела. ( ОЕСР , СЕФ )
Каде што е навистина корисно
-
Изготвување рутински текст за да можат луѓето да се фокусираат на размислување.
-
Помош при кодирање за повторувачки шеми.
-
Алатки за пристапност (титлување, резиме, превод).
-
Размислувајте кога сте заглавени.
Каде оди предалеку
-
Замена на улоги без планови за транзиција.
-
Користење на вештачка интелигенција за намалување на производството, а воедно и израмнување на платите.
-
Третирање на креативната работа како бесконечни податоци за бесплатна обука, а потоа кревање раменици. ( Канцеларија за авторски права на САД , UK GOV.UK )
-
Исчезнување на помладите улоги - што звучи ефикасно сè додека не сфатите дека штотуку сте ја изгореле скалата по која треба да се искачат идните експерти.
Деформирањето е суптилно. Не го забележувате секој ден. Потоа еден ден сфаќате дека никој во тимот не се сеќава како функционира работата без асистентот. И ако асистентот греши, сите вие сте самоуверено погрешни заедно… што е еден вид кошмар. 😬
Концентрација на моќност: кој може да ги постави стандардните поставки? 🏢⚡
Дури и ако вештачката интелигенција е „неутрална“ (не е), секој што ја контролира може да обликува:
-
до кои информации е лесно достапен,
-
што се унапредува или закопува,
-
кој јазик е дозволен,
-
какви однесувања се охрабруваат.
И бидејќи системите со вештачка интелигенција можат да бидат скапи за градење и работење, моќта има тенденција да се концентрира. Тоа не е заговор. Тоа е економија со технолошки качулка. ( UK CMA )
Моментот „премногу далеку“ тука
Кога неисполнувањата стануваат невидлив закон:
-
не знаеш што се филтрира,
-
не можеш да ја провериш логиката,
-
и реално не можете да се откажете без да го изгубите пристапот до работа, заедница или основни услуги.
Здравиот екосистем има потреба од конкуренција, транспарентност и вистински избор на корисниците. Инаку, во основа ја изнајмувате реалноста. 😵♂️
Практична листа за проверка: како да препознаете дали вештачката интелигенција оди предалеку во вашиот свет 🧾🔍
Еве листа за проверка на стомакот што ја користам (и да, е несовршена):
Ако сте поединец
-
Можам да препознаам кога сум во интеракција со вештачка интелигенција. ( Европска комисија )
-
Овој систем ме тера да споделувам прекумерно.
-
Би било во ред да се справам со резултатот ако е погрешен на убедлив начин.
-
Ако ме измамат користејќи го ова, платформата ќе ми помогне... или ќе се побуни.
Ако сте бизнис или тим
-
Користиме вештачка интелигенција затоа што е вредна или затоа што е модерна, а менаџментот е немирен.
-
Знаеме со какви податоци допира системот.
-
Засегнатиот корисник може да поднесе жалба за резултатите. ( UK ICO )
-
Луѓето се овластени да го заобиколат моделот.
-
Имаме планови за одговор на инциденти при дефекти на вештачката интелигенција.
-
Следиме за отстапувања, злоупотреба и невообичаени случаи на рабови.
Ако одговоривте со „не“ на многу од овие прашања, тоа не значи дека сте злобни. Тоа значи дека сте во нормалната човечка состојба „ние го испративме и се надевавме“. Но, за жал, надежта не е стратегија. 😅
Заклучоци 🧠✅
Значи… Дали вештачката интелигенција отишла предалеку?
Таа отишла предалеку каде што се користи без одговорност , особено во одлуки со висок ризик, масовно убедување и надзор. Исто така, отишла предалеку каде што ја еродира довербата - бидејќи откако довербата ќе се распадне, сè станува поскапо и понепријателско, општествено гледано. ( NIST AI RMF 1.0 , Закон за вештачка интелигенција на ЕУ )
Но, вештачката интелигенција не е по природа осудена на пропаст или по природа совршена. Таа е моќен мултипликатор. Прашањето е дали ги градиме заштитните огради толку агресивно колку што ги градиме можностите.
Брз преглед:
-
Вештачката интелигенција е во ред како алатка.
-
Опасно е како неодговорен авторитет.
-
Ако некој не може да поднесе жалба, да разбере или да се откаже - тука почнува „премногу далеку“. 🚦 ( GDPR чл. 22 , UK ICO )
Најчесто поставувани прашања
Дали вештачката интелигенција отишла предалеку во секојдневниот живот?
На многу места, вештачката интелигенција отиде предалеку бидејќи почна да се лизга во одлуките и интеракциите без јасни граници или одговорност. Проблемот ретко е „постоењето на вештачката интелигенција“; тоа е вештачка интелигенција која е тивко вметната во вработувањето, здравствената заштита, услугата за корисници и каналите со слаб надзор. Кога луѓето не можат да препознаат дека е вештачка интелигенција, не можат да ги оспорат резултатите или не можат да се откажат, таа престанува да се чувствува како алатка и почнува да се чувствува како систем.
Како изгледа „претерувањето на вештачката интелигенција“ во одлуките со висок ризик?
Се чини дека вештачката интелигенција се користи во здравството, финансиите, домувањето, вработувањето, образованието, имиграцијата или кривичната правда без силни заштитни огради. Централното прашање не е што моделите прават грешки; туку што тие грешки се вкоренуваат во политика и стануваат тешки за оспорување. Одлуките „компјутерот вели не“ со слаби објаснувања и без значајни жалби се местото каде што штетата брзо се зголемува.
Како можам да знам дали автоматизирана одлука ме засега и што можам да направам?
Чест знак е ненадеен исход за кој не можете да објасните: одбивање, ограничување или вибрации на „оценка на ризик“ без јасна причина. Многу системи треба да откријат кога вештачката интелигенција одиграла суштинска улога, а вие треба да можете да побарате ги главните причини зад одлуката и чекорите за жалба. Во пракса, побарајте човечка ревизија, исправете ги сите погрешни податоци и инсистирајте на едноставен пат за откажување.
Дали вештачката интелигенција отишла предалеку со приватноста, согласноста и користењето на податоци?
Често се случува кога согласноста станува потрага по богатство, а собирањето податоци се проширува „за секој случај“. Основната поента на статијата е дека приватноста и согласноста немаат голема тежина ако се закопани во услови или се наметнуваат преку нејасни услови. Поздрав пристап е минимизирање на податоците: собирајте помалку, чувајте помалку и правете избори непогрешливи за луѓето да не бидат изненадени подоцна.
Како длабоките фејкови и измамите со вештачка интелигенција го менуваат значењето на „довербата“ онлајн?
Тие ја прават вистината да се чувствува опционално со намалување на трошоците за производство на убедливи лажни гласови, видеа, рецензии и идентитети. Проблемот е асиметријата: генерирањето лаги е евтино, додека проверката на вистината е бавна и заморна. Практичните одбрани вклучуваат сигнали за потекло за медиумите, забавување на виралното споделување, посилни проверки на идентитетот таму каде што е важно и навики за „потврдување надвор од опсегот“ како што се враќање на повик или користење на споделен код.
Кои се најпрактичните заштитни огради за да се спречи вештачката интелигенција да оди предалеку?
Заштитните огради што ги менуваат резултатите вклучуваат вистински преглед од страна на човекот за повици со висок ризик, јасни процеси на жалби и логови за ревизија што можат да одговорат на прашањето „што се случи?“ по неуспесите. Евалуацијата на моделот и тестирањето на пристрасност можат да ги откријат предвидливите штети порано, додека тестирањето со „црвен тим“ симулира злоупотреба пред напаѓачите да го сторат тоа. Ограничувањата на брзината и контролите на пристап помагаат да се спречи злоупотребата веднаш да се зголеми, а минимизирањето на податоците го намалува ризикот низ целата табла.
Кога надзорот управуван од вештачка интелигенција ја преминува границата?
Се преминува границата кога сè по дифолт се претвора во сензор: препознавање лица во толпи, следење на движење или сигурно „детектирање на емоции“ што се користи за казнување или контрола. Дури и неточните системи можат да предизвикаат сериозна штета ако оправдуваат интервенции или одбивање на услуги. Добрата практика изгледа како тесни случаи на употреба, строги ограничувања на задржување, значајни откажувања, независен надзор и цврсто „не“ за несигурни проценки засновани на емоции.
Дали вештачката интелигенција ги прави луѓето попродуктивни - или тивко ја намалува квалификацијата на работата?
И двете можат да бидат вистинити истовремено, и токму во таа тензија е поентата. Вештачката интелигенција може да помогне со рутинско цртање, повторувачки шеми на кодирање и пристапност, ослободувајќи ги луѓето да се фокусираат на размислување од повисоко ниво. Таа оди предалеку кога ги заменува улогите без планови за транзиција, ги намалува платите, ја третира креативната работа како бесплатни податоци за обука или ги отстранува помладите улоги кои градат идна експертиза. Деквалификацијата останува суптилна сè додека тимовите не можат да функционираат без асистентот.
Референци
-
Национален институт за стандарди и технологија (NIST) - Рамка за управување со ризици од вештачка интелигенција (AI RMF 1.0) - nist.gov
-
Европска Унија - Закон на ЕУ за вештачка интелигенција (Регулатива (ЕУ) 2024/1689) - Службен весник (англиски) - europa.eu
-
Европска комисија - Регулаторна рамка за вештачка интелигенција (страница за политиката на Законот за вештачка интелигенција на ЕУ) - europa.eu
-
Сервисна служба за Законот за вештачка интелигенција на ЕУ - Анекс III (Високоризични системи за вештачка интелигенција) - europa.eu
-
Европска Унија - Правила за доверлива вештачка интелигенција во ЕУ (резиме на Законот на ЕУ за вештачка интелигенција) - europa.eu
-
Канцеларија на комесарот за информации на Велика Британија (ICO) - Што е автоматизирано донесување одлуки и профилирање на поединци? - ico.org.uk
-
Канцеларија на комесарот за информации на Велика Британија (ICO) - Што вели GDPR на Велика Британија за автоматизирано донесување одлуки и профилирање? - ico.org.uk
-
Канцеларија на комесарот за информации на Обединетото Кралство (ICO) - Автоматизирано донесување одлуки и профилирање (центар за насоки) - ico.org.uk
-
Канцеларија на комесарот за информации на Обединетото Кралство (ICO) - Минимизирање на податоци (водич за принципите на GDPR на Обединетото Кралство) - ico.org.uk
-
GDPR-info.eu - Член 22 од GDPR - gdpr-info.eu
-
GDPR-info.eu - Член 5 од GDPR - gdpr-info.eu
-
Федерална комисија за трговија на САД (FTC) - Измамниците користат вештачка интелигенција за подобрување на нивните семејни шеми за итни случаи - ftc.gov
-
Федерална комисија за трговија на САД (FTC) - Измамниците користат лажни итни случаи за да ви ги украдат парите - ftc.gov
-
Федералната комисија за трговија на САД (FTC) - Конечно правило за забрана на лажни прегледи и сведоштва (соопштение за печатот) - ftc.gov
-
Федерално биро за истраги (ФБИ) - ФБИ предупредува на зголемена закана од сајбер криминалци кои користат вештачка интелигенција - fbi.gov
-
Организација за економска соработка и развој (ОЕЦД) - Принципи на ОЕЦД за вештачка интелигенција - oecd.ai
-
ОЕЦД - Препорака на Советот за вештачка интелигенција (ОЕЦД/ЛЕГАЛ/0449) - oecd.org
-
Европска комисија - Насоки и кодекс на пракса за транспарентни системи за вештачка интелигенција (ЧПП) - europa.eu
-
Коалиција за потекло и автентичност на содржината (C2PA) - Спецификации v2.3 - c2pa.org
-
Управа за конкуренција и пазари на Обединетото Кралство (CMA) - Модели на основање на вештачка интелигенција: почетен извештај - gov.uk
-
Администрација за храна и лекови на САД (FDA) - Медицински помагала овозможени со вештачка интелигенција - fda.gov
-
NIST - Контроли за безбедност и приватност за информациски системи и организации (SP 800-53 Rev. 5) - nist.gov
-
NIST - Генеративен профил на вештачка интелигенција (NIST.AI.600-1, ipd) - nist.gov
-
Отворен светски проект за безбедност на апликации (OWASP) - Неограничена потрошувачка на ресурси (API Security Top 10, 2023) - owasp.org
-
NIST - Демографија на тестот за препознавање лица (FRVT) - nist.gov
-
Барет и др. (2019) - Статија (PMC) - nih.gov
-
ОЕЦД - Користење на вештачка интелигенција на работното место (PDF) - oecd.org
-
Светски економски форум (WEF) - Извештај за иднината на работните места 2025 - Digest - weforum.org
-
Канцеларија за авторски права на САД - Авторски права и вештачка интелигенција, дел 3: Извештај за обука за генеративна вештачка интелигенција (верзија пред објавување) (PDF) - copyright.gov
-
Влада на Обединетото Кралство (GOV.UK) - Авторски права и вештачка интелигенција (консултации) - gov.uk