Која е одговорноста на програмерите што користат генеративна вештачка интелигенција?

Која е одговорноста на програмерите што користат генеративна вештачка интелигенција?

Краток одговор: Програмерите кои користат генеративна вештачка интелигенција се одговорни за целиот систем, а не само за излезните резултати на моделот. Кога вештачката интелигенција влијае на одлуките, кодот, приватноста или довербата на корисниците, тие мора да изберат безбедни апликации, да ги потврдат резултатите, да ги заштитат податоците, да ја намалат штетата и да обезбедат луѓето да можат да ги прегледуваат, поништуваат и исправаат грешките.

Клучни заклучоци:

Верификација : Третирајте ги дотераните резултати како недоверливи сè додека изворите, тестовите или човечкиот преглед не ги потврдат.

Заштита на податоци : Минимизирајте ги податоците што се бараат, отстранете ги идентификаторите и заштитете ги логовите, контролите за пристап и добавувачите.

Праведност : Тестирајте низ демографските групи и контекстите за да ги откриете стереотипите и нееднаквите модели на неуспех.

Транспарентност : Јасно означете ја употребата на вештачка интелигенција, објаснете ги нејзините ограничувања и понудете човечка рецензија или жалба.

Одговорност : Доделете јасни сопственици за распоредување, инциденти, следење и враќање на претходните верзии пред лансирањето.

Која е одговорноста на програмерите што користат генеративна вештачка интелигенција? Инфографик

Статии што можеби ќе ве интересираат по оваа:

🔗 Најдобри алатки за вештачка интелигенција за развивачи на софтвер: Најдобри асистенти за кодирање со вештачка интелигенција
Споредете ги врвните асистенти за кодирање со вештачка интелигенција за побрзи и почисти работни процеси за развој.

🔗 Топ 10 алатки за вештачка интелигенција за програмери за зголемување на продуктивноста
Рангирана листа на алатки за вештачка интелигенција за развивачи за попаметно кодирање и брзина.

🔗 Зошто вештачката интелигенција може да биде лоша за општеството и довербата
Ги објаснува штетите од реалниот свет: пристрасност, приватност, работни места и ризици од дезинформации.

🔗 Дали вештачката интелигенција отишла предалеку во одлуките со висок ризик?
Дефинира кога вештачката интелигенција ги преминува границите: надзор, длабоки лаги, убедување, без согласност.

Зошто одговорноста на програмерите што користат генеративна вештачка интелигенција е поважна отколку што луѓето мислат

Многу софтверски грешки се иритирачки. Едно копче се крши. Страницата се вчитува бавно. Нешто се руши и сите стенкаат.

Проблемите со генеративната вештачка интелигенција можат да бидат различни. Тие можат да бидат суптилни.

Моделот може да звучи самоуверено, а сепак да греши. NIST GenAI профил Може да репродуцира пристрасност без очигледни предупредувачки знаци. NIST GenAI профил Може да открие чувствителни податоци ако се користи невнимателно. OWASP Топ 10 за LLM апликации Осумте прашања на ICO за генеративна AI Може да произведе код што функционира - сè додека не пропадне во производството на некој длабоко засрамувачки начин. OWASP Топ 10 за LLM апликации Како да ангажирате многу ентузијастичен практикант кој никогаш не спие и од време на време измислува факти со зачудувачка самодоверба.

Затоа одговорноста на програмерите што користат генеративна вештачка интелигенција е поголема од едноставната имплементација. Програмерите повеќе не градат само логички системи. Тие градат веројатносни системи со нејасни рабови, непредвидливи резултати и реални социјални последици. NIST AI RMF

Тоа значи дека одговорноста вклучува:

Знаете како оди тоа - кога алатката се чувствува магична, луѓето престануваат да ја доведуваат во прашање. Програмерите не можат да си дозволат да бидат толку опуштени.

Што ја прави една верзија на одговорност на програмерите кои користат генеративна вештачка интелигенција добра? 🛠️

Добрата верзија на одговорност не е перформативна. Тоа не е само додавање на одрекување од одговорност на дното и тоа нарекување етика. Таа се покажува во изборот на дизајн, навиките за тестирање и однесувањето на производот.

Еве како обично изгледа одговорноста на програмерите кои користат генеративна вештачка интелигенција

Ако тоа звучи како многу, тогаш... така е. Но, тоа е работата кога работите со технологија што може да влијае на одлуките, верувањата и однесувањето на големо. Принципи на ОЕЦД за вештачка интелигенција

Табела за споредба - основната одговорност на програмерите кои користат генеративна вештачка интелигенција на прв поглед 📋

Област на одговорност Кого влијае Дневна пракса за програмери Зошто е важно
Точност и верификација корисници, тимови, клиенти Преглед на резултатите, додавање слоеви за валидација, тестирање на случаи на работ Вештачката интелигенција може да биде течна, а сепак многу погрешна - што е груба комбинација. Профил на NIST GenAI.
Заштита на приватноста корисници, клиенти, внатрешен персонал Минимизирајте ја употребата на чувствителни податоци, пребарувајте ги упатствата, контролирајте ги логовите Откако ќе протечат приватни податоци, пастата за заби е надвор од тубата 😬 Осум прашања на ICO за генеративна вештачка интелигенција OWASP Топ 10 за апликации за LLM
Пристрасност и праведност недоволно застапени групи, сите корисници навистина Ревизија на резултатите, тестирање на различни влезни податоци, прилагодување на заштитните мерки Штетата не е секогаш гласна - понекогаш е систематска и тивка. NIST GenAI профил ICO насоки за вештачка интелигенција и заштита на податоци.
Безбедност системи на компанијата, корисници Ограничување на пристапот до моделот, заштита од брзо вбризгување, ризични дејства во песочник Една паметна злоупотреба може брзо да ја уништи довербата OWASP Топ 10 за апликации за LLM NCSC за вештачка интелигенција и сајбер безбедност
Транспарентност крајни корисници, регулатори, тимови за поддршка Јасно означете го однесувањето на вештачката интелигенција, објаснете ги ограничувањата, документирајте ја употребата Луѓето заслужуваат да знаат кога машината помага за принципите на вештачката интелигенција на ОЕЦД за означување и етикетирање на содржина генерирана од вештачка интелигенција
Одговорност сопственици на производи, правни лица, тимови за развој Дефинирајте сопственост, справување со инциденти, патеки за ескалација „Вештачката интелигенција го направи тоа“ не е возрасен одговор - Принципи на ОЕЦД за вештачка интелигенција
Сигурност секој што го допира производот Следете ги неуспесите, поставете прагови на доверба, креирајте резервна логика Моделите талкаат, не успеваат на неочекувани начини и од време на време имаат драматични мали епизоди. NIST AI RMF NCSC безбедни упатства за AI.
Корисничката благосостојба особено ранливите корисници Избегнувајте манипулативен дизајн, ограничете ги штетните резултати, разгледајте ги случаите на употреба со висок ризик Само затоа што нешто може да се генерира, не значи дека треба да биде во согласност со принципите на ОЕЦД за вештачка интелигенција, NIST AI RMF.

Малку нерамна маса, секако, но тоа одговара на темата. Вистинската одговорност е исто така нерамна.

Одговорноста започнува пред првиот поттик - избор на вистинскиот случај на употреба 🎯

Една од најголемите одговорности што ги имаат програмерите е да одлучат дали воопшто треба да се користи генеративна вештачка интелигенција . NIST AI RMF

Тоа звучи очигледно, но постојано се прескокнува. Тимовите гледаат модел, се возбудуваат и почнуваат да го наметнуваат во работни процеси кои подобро би се решеле со правила, пребарување или обична софтверска логика. Не секој проблем има потреба од јазичен модел. На некои проблеми им е потребна база на податоци и мирно попладне.

Пред да градат, инвеститорите треба да прашаат:

Одговорниот инвеститор не прашува само: „Можеме ли да го изградиме ова?“, туку прашува: „Дали ова треба да се изгради вака?“ , NIST AI RMF

Самото тоа прашање спречува многу сјајни глупости.

Точноста е одговорност, а не бонус карактеристика ✅

Да бидеме јасни - една од најголемите стапици во генеративната вештачка интелигенција е мешањето на елоквенцијата со вистина. Моделите често произведуваат одговори што звучат дотерано, структурирани и длабоко убедливи. Што е прекрасно, сè додека содржината не стане бесмислена завиткана во доверливост. Профил на NIST GenAI

Значи, одговорноста на програмерите што користат генеративна вештачка интелигенција вклучува градење за верификација.

Тоа значи:

Ова е многу важно во области како што се:

  • здравствена заштита

  • финансии

  • правни работни процеси

  • образование

  • поддршка на корисници

  • автоматизација на претпријатија

  • генерирање на код

Генерираниот код, на пример, може да изгледа уредно, а воедно да ги крие безбедносните недостатоци или логичките грешки. Развивач кој го копира слепо не е ефикасен - тој едноставно го аутсорсира ризикот во поубав формат. OWASP Топ 10 за апликации за LLM NCSC за вештачка интелигенција и сајбер безбедност

Моделот може да помогне. Инвеститорот сè уште е сопственик на резултатот. Принципи на ОЕЦД за вештачка интелигенција

Приватноста и управувањето со податоците се неспорни 🔐

Еве каде работите брзо стануваат сериозни. Генеративните системи со вештачка интелигенција често се потпираат на потсетници, логови, контекстуални прозорци, слоеви на меморија, аналитика и инфраструктура од трети страни. Тоа создава многу шанси чувствителните податоци да протекуваат, да се истраат или да се користат повторно на начини што корисниците никогаш не ги очекувале. Осумте прашања на ICO за генеративна вештачка интелигенција OWASP Топ 10 за апликации за LLM

Програмерите имаат одговорност да заштитат:

  • лични информации

  • финансиски записи

  • медицински детали

  • внатрешни податоци на компанијата

  • трговски тајни

  • токени за автентикација

  • комуникација со клиенти

Одговорните практики вклучуваат:

Ова е една од оние области каде што „заборавивме да размислиме за тоа“ не е мала грешка. Тоа е неуспех што ја руши довербата.

И довербата, откако ќе се распука, се шири како паднато стакло. Можеби не е баш најчистата метафора, но сфаќате.

Пристрасност, праведност и претставување - потивки одговорности ⚖️

Пристрасноста во генеративната вештачка интелигенција ретко е негативец од цртани филмови. Обично е понеизвесна од тоа. Моделот може да произведе стереотипни описи на работни места, нееднакви одлуки за модерирање, нееднакви препораки или културно тесни претпоставки без да активира очигледни аларми. Профил на NIST GenAI.

Затоа одговорноста на програмерите што користат генеративна вештачка интелигенција вклучува работа на активна фер работа.

Програмерите треба:

Системот може да изгледа дека генерално добро функционира, а сепак постојано да им служи на некои корисници полошо од на други. Тоа не е прифатливо само затоа што просечните перформанси изгледаат убаво на контролната табла. ICO насоки за вештачка интелигенција и заштита на податоци NIST GenAI профил

И да, праведноста е потешка од уредна листа за проверка. Содржи проценка. Контекст. Компромиси. Исто така, одредена доза на непријатност. Но, тоа не ја отстранува одговорноста - ја потврдува. Упатства на ICO за вештачка интелигенција и заштита на податоци

Безбедноста сега е делумно брз дизајн, делумно инженерска дисциплина 🧱

Генеративната безбедност на вештачката интелигенција е свој посебен ѕвер. Традиционалната безбедност на апликациите сè уште е важна, се разбира, но системите со вештачка интелигенција додаваат необични површини за напад: брзо инјектирање, индиректно брзо манипулирање, небезбедна употреба на алатки, ексфилтрација на податоци преку контекст и злоупотреба на моделот преку автоматизирани работни процеси. OWASP Топ 10 за апликации за LLM NCSC за вештачка интелигенција и сајбер безбедност

Програмерите се одговорни за обезбедување на целиот систем, а не само на интерфејсот. NCSC упатства за безбедна вештачка интелигенција

Клучните одговорности тука вклучуваат:

Една непријатна вистина е дека корисниците - и напаѓачите - апсолутно ќе пробаат работи што програмерите не ги очекувале. Некои од љубопитност, некои од злоба, некои затоа што кликнале на погрешно нешто во 2 часот наутро. Тоа се случува.

Безбедноста за генеративна вештачка интелигенција е помалку како градење ѕид, а повеќе како управување со многу зборлив чувар на вратата кој понекогаш е измамен со фразирање.

Транспарентноста и согласноста на корисниците се поважни од впечатливото корисничко искуство 🗣️

Кога корисниците комуницираат со вештачка интелигенција, тие треба да го знаат тоа. Принципи на вештачката интелигенција на ОЕЦД Кодекс на пракса за обележување и етикетирање на содржина генерирана од вештачка интелигенција

Не нејасно. Не е скриено во зборови. Јасно.

Клучен дел од одговорноста на програмерите што користат генеративна вештачка интелигенција е да се осигурат дека корисниците разбираат:

Транспарентноста не е заплашување на корисниците. Станува збор за нивно почитување.

Добрата транспарентност може да вклучува:

Многу тимови за производи се грижат дека искреноста ќе ја направи функцијата да изгледа помалку магична. Можеби. Но, лажната сигурност е полоша. Мазен интерфејс што го крие ризикот е во основа дотерана конфузија.

Програмерите остануваат одговорни - дури и кога моделот „одлучува“ 👀

Овој дел е многу важен. Одговорноста не може да се префрли на продавачот на моделот, картичката на моделот, шаблонот за известување или мистериозната атмосфера на машинско учење. Принципи на ОЕЦД за вештачка интелигенција , NIST, AI, RMF

Програмерите сè уште се одговорни. Принципи на ОЕЦД за вештачка интелигенција

Тоа значи дека некој во тимот треба да поседува:

Треба да има јасни одговори на прашања како што се:

Без одговорност, одговорноста се претвора во магла. Секој претпоставува дека некој друг се справува со неа... а потоа никој не се справува.

Всушност, тој модел е постар од вештачката интелигенција. Вештачката интелигенција едноставно ја прави поопасна.

Одговорните програмери градат за корекција, а не за совршенство 🔄

Еве го малиот пресврт во сето ова: одговорниот развој на вештачката интелигенција не е преправајќи се дека системот ќе биде совршен. Станува збор за претпоставка дека ќе пропадне на некој начин и дизајнирање околу таа реалност. NIST AI RMF

Тоа значи градење производи кои се:

Вака изгледа зрелоста. Не сјајни демонстрации. Не маркетиншки текст што го одзема здивот. Вистински системи, со заштитни огради, логови, одговорност и доволно скромност за да се признае дека машината не е волшебник. NCSC безбедни упатства за вештачка интелигенција Принципи на ОЕЦД за вештачка интелигенција

Затоа што не е. Тоа е алатка. Моќна, да. Но, сепак алатка.

Заклучок за одговорноста на програмерите кои користат генеративна вештачка интелигенција 🌍

Значи, која е одговорноста на програмерите што користат генеративна вештачка интелигенција ?

Станува збор за внимателно градење. Да се ​​преиспита каде системот помага, а каде штети. Да се ​​заштити приватноста. Да се ​​тестира за пристрасност. Да се ​​потврдат резултатите. Да се ​​обезбеди работниот тек. Да се ​​биде транспарентен со корисниците. Да се ​​задржат луѓето во значајна контрола. Да се ​​остане одговорен кога работите тргнат наопаку. NIST AI RMF OECD Принципи на AI

Тоа можеби звучи тешко - и така е. Но, тоа е исто така она што го разликува промислениот развој од неодговорната автоматизација.

Најдобрите програмери кои користат генеративна вештачка интелигенција не се оние кои го прават моделот да изведува најмногу трикови. Тие се оние кои ги разбираат последиците од тие трикови и дизајнираат соодветно. Тие знаат дека брзината е важна, но довербата е вистинскиот производ. Чудно е што таа старомодна идеја сè уште важи. NIST AI RMF

На крајот на краиштата, одговорноста не е пречка за иновациите. Таа е она што ја спречува иновацијата да се претвори во скапа, турбулентна експанзија со дотеран интерфејс и проблем со доверба 😬✨

И можеби тоа е наједноставната верзија од тоа.

Градете смело, секако - но градете како луѓето да би можеле да бидат засегнати, бидејќи тие се. Принципи на ОЕЦД за вештачка интелигенција

Најчесто поставувани прашања

Која е одговорноста на програмерите кои користат генеративна вештачка интелигенција во пракса?

Одговорноста на програмерите што користат генеративна вештачка интелигенција се протега многу подалеку од брзото испорачување на функциите. Таа вклучува избор на вистински случај на употреба, тестирање на резултатите, заштита на приватноста, намалување на штетното однесување и разбирливост на системот за корисниците. Во пракса, програмерите остануваат одговорни за тоа како алатката е дизајнирана, следена, корегирана и управувана кога ќе откаже.

Зошто генеративната вештачка интелигенција бара поголема одговорност од развивачот отколку обичниот софтвер?

Традиционалните грешки се често очигледни, но генеративната вештачка интелигенција може да звучи дотерано, а сепак да биде погрешна, пристрасна или ризична. Тоа ги отежнува откривањето на проблемите и им олеснува на корисниците да им веруваат по грешка. Програмерите работат со веројатносни системи, па затоа одговорноста вклучува справување со неизвесноста, ограничување на штетата и подготовка за непредвидливи резултати пред лансирањето.

Како програмерите знаат кога генеративната вештачка интелигенција не треба да се користи?

Честа почетна точка е да се праша дали задачата е отворена или е подобро да се справи со правила, пребарување или стандардна софтверска логика. Програмерите треба да земат предвид и колку штета може да предизвика погрешен одговор и дали човекот може реално да ги разгледа резултатите. Одговорната употреба понекогаш значи одлука воопшто да не се користи генеративна вештачка интелигенција.

Како програмерите можат да ги намалат халуцинациите и погрешните одговори во генеративните системи со вештачка интелигенција?

Точноста треба да се дизајнира, а не да се претпоставува. Во многу цевководи, тоа значи заземјување на излезните податоци во доверливи извори, одвојување на генерираниот текст од потврдените факти и користење на работни процеси за преглед за задачи со повисок ризик. Програмерите треба да тестираат и упатства што имаат за цел да го збунат или доведат во заблуда системот, особено во области како што се код, поддршка, финансии, образование и здравствена заштита.

Која е одговорноста на програмерите што користат генеративна вештачка интелигенција за приватност и чувствителни податоци?

Одговорноста на програмерите кои користат генеративна вештачка интелигенција вклучува минимизирање на податоците што влегуваат во моделот и третирање на барањата, логовите и излезните податоци како чувствителни. Програмерите треба да ги отстранат идентификаторите каде што е можно, да го ограничат задржувањето, да го контролираат пристапот и внимателно да ги прегледаат поставките на добавувачот. Корисниците исто така треба да бидат способни да разберат како се ракува со нивните податоци, наместо подоцна да ги откриваат ризиците.

Како треба програмерите да се справат со пристрасноста и праведноста во генеративните резултати од вештачката интелигенција?

Работата со пристрасност бара активна евалуација, а не претпоставки. Практичен пристап е да се тестираат потсетници низ различни демографски групи, јазици и контексти, а потоа да се прегледаат резултатите за стереотипи, исклучување или нееднакви шеми на неуспех. Програмерите треба да создадат и начини корисниците или тимовите да пријавуваат штетно однесување, бидејќи системот може да изгледа силен во целина, а сепак постојано да ги разочарува одредени групи.

За кои безбедносни ризици треба да размислат програмерите со генеративната вештачка интелигенција?

Генеративната вештачка интелигенција воведува нови површини за напад, вклучувајќи брзо инјектирање, небезбедна употреба на алатки, истекување на податоци преку контекст и злоупотреба на автоматизирани дејства. Програмерите треба да го санираат недоверливиот влез, да ги ограничат дозволите за алатки, да го ограничат пристапот до датотеки и мрежа и да ги следат шемите на злоупотреба. Безбедноста не е само за интерфејсот; таа се однесува на целиот работен тек околу моделот.

Зошто е важна транспарентноста при градење со генеративна вештачка интелигенција?

Корисниците треба јасно да знаат кога е вклучена вештачката интелигенција, што може да направи и каде се нејзините граници. Добрата транспарентност може да вклучува етикети како што се генерирана од вештачка интелигенција или потпомогната од вештачка интелигенција, едноставни објаснувања и јасни патишта до човечка поддршка. Таквиот вид искреност не го ослабува производот; им помага на корисниците да ја зголемат довербата и да донесуваат подобри одлуки.

Кој е одговорен кога генеративната функција на вештачката интелигенција предизвикува штета или прави нешто погрешно?

Програмерите и тимовите за производи сè уште се сопственици на резултатот, дури и кога моделот го дава одговорот. Тоа значи дека треба да постои јасна одговорност за одобрување на распоредувањето, справување со инциденти, враќање на претходната состојба, следење и комуникација со корисниците. „Моделот одлучи“ не е доволно, бидејќи одговорноста мора да остане кај луѓето што го дизајнирале и лансирале системот.

Како изгледа одговорниот генеративен развој на вештачката интелигенција по лансирањето?

Одговорниот развој продолжува по објавувањето преку следење, повратни информации, преглед и корекција. Силните системи се ревидирани, прекинливи, обновливи и дизајнирани со резервни патеки кога вештачката интелигенција ќе откаже. Целта не е совршенство; туку градење нешто што може безбедно да се испита, подобри и прилагоди како што се појавуваат проблеми во реалниот свет.

Референци

  1. Национален институт за стандарди и технологија (NIST) - Профил на NIST GenAI - nvlpubs.nist.gov

  2. OWASP - OWASP Топ 10 за апликации за LLM - owasp.org

  3. Канцеларија на комесарот за информации (ICO) - Осумте прашања на ICO за генеративна вештачка интелигенција - ico.org.uk

Пронајдете ја најновата вештачка интелигенција во официјалната продавница за асистенти за вештачка интелигенција

За нас

Назад кон блогот