Индонезија го блокира пристапот до вештачкиот четбот на Маск, Грок, поради длабоко лажни слики ↗
Индонезија привремено го блокираше Grok откако беше користен за генерирање на неконсензуални сексуални дипфејксови - вклучувајќи слики насочени кон жени и деца. Владата го претстави ова како проблем со човековите права и јавната безбедност, а не како мала технолошка непријатност.
Притисокот е директен: ако алатката може да ги „соблече“ вистинските луѓе по наредба, товарот на докажување се префрла. Платформите мора да покажат дека можат да го спречат тоа, а не само да се обврзат дека размислуваат за тоа.
Илон Маск вели дека Велика Британија сака да ја потисне слободата на говор бидејќи X се соочува со можна забрана ↗
Британските министри отворено предложија казни - па дури и блокирање на X - откако Grok беше искористен за генерирање сексуално експлицитни слики без согласност. Маск возврати со познатото рамки за слобода на говорот... но законската положба во Велика Британија се лизга од „клуб за дебата“ кон „рок за усогласеност“
Офком е поттикнат да дејствува брзо, а законодавците укажуваат на истиот мрачен образец: откако сликите ќе се прошират, штетата не чека трпеливо за ажурирање на политиката.
🧑💻 Според извештаите, OpenAI бара од изведувачите да прикачуваат вистинска работа од претходни работни места ↗
OpenAI, заедно со партнер за податоци за обука, наводно бара од изведувачите да прикачуваат артефакти од вистинска работа од минати (и тековни) работни места - замислете документи, табеларни пресметки, декови, репозиториуми. Наведената цел е да се евалуираат и подобрат агентите со вештачка интелигенција во канцелариски задачи.
Лепливиот дел е очигледен и малку надреален: на изведувачите им се вели сами да ги прочистуваат чувствителните информации. Тоа е голема доверба што треба да се положи во процес на брзо движење - како да се бара од некого да деактивира бомба користејќи ракавици за рерна, со љубов.
🗂️ OpenAI бара од изведувачите да прикачуваат работа од минати работни места за да ја оценат ефикасноста на агентите за вештачка интелигенција ↗
Посебен извештај навлегува во истата поставеност и зошто таа ги алармира адвокатите за приватност и интелектуална сопственост. Дури и ако сите дејствуваат добронамерно, „отстранете доверливи работи“ е мека инструкција кога работите со вистински корпоративни документи.
Исто така, тоа алудира на поголемата стратегија: агентите на вештачката интелигенција повеќе не се само зборлести копилоти - тие се обучуваат да ја имитираат заплетканата реалност на реалната работа со повеќе датотеки. Практично, да. Исто така, малку… леле.
🏦 Глобалното партнерство на Allianz и Anthropic Forge за унапредување на одговорната вештачка интелигенција во осигурувањето ↗
„Алијанц“ и „Антропик“ објавија глобално партнерство фокусирано на три насоки: продуктивност на вработените, оперативна автоматизација преку агентска вештачка интелигенција и усогласеност по дизајн. Осигурувањето е документација со заби, па „агентско“ тука во основа значи автоматизирање на сложени работни процеси без губење на ревизорски траги.
Вибрацијата е: правете ја кул автоматизацијата, но чувајте ги сметките. Во регулираните индустрии, тоа е единствениот начин ова да се прошири без да се претвори во пињата со одговорност.
🕵️♂️ Изјава како одговор на Grok AI на X ↗
Регулаторот за заштита на податоци на Обединетото Кралство вели дека контактирал со X и xAI барајќи појаснување за тоа како тие ракуваат со личните податоци и ги штитат правата на луѓето, со оглед на загриженоста околу содржината генерирана од Grok. Не станува збор само за „модерирање на содржината“ - туку и за тоа дали податоците на луѓето се обработуваат законски и дали правата се заштитени.
Ова е вид на регулаторен потег што звучи учтиво, а потоа тивко станува исклучително сериозен ако одговорите се вратат нејасни… или заобиколни, или и двете.
Најчесто поставувани прашања
Зошто Индонезија го блокираше пристапот до Grok AI?
Индонезија привремено го блокираше Grok откако наводно се користел за генерирање на неконсензуални сексуални дипфејксови, вклучувајќи слики насочени кон жени и деца. Службениците го опишаа потегот како прашање за човекови права и јавна безбедност, а не како мал технолошки спор. Основната порака е дека „ќе го поправиме подоцна“ не е доволна кога алатките можат да предизвикаат моментална, неповратна штета.
Што размислува Велика Британија откако длабоките фејкови генерирани од Grok се појавија на X?
Британските министри јавно дискутираа за казните, па дури и за можноста за блокирање на X откако Grok беше користен за креирање сексуално експлицитни слики без согласност. Политичкиот и регулаторниот тон се менува кон извршна усогласеност, а не кон отворена дебата. Поентата на која пратениците постојано се враќаат е времето: откако сликите ќе се рашират, жртвите се соочуваат со штета долго пред платформите да објават ажурирани политики.
Што значи кога регулаторите го „префрлаат товарот на докажување“ за алатките за слики со вештачка интелигенција?
Идејата за „превртување на товарот на докажување“ е дека платформите можеби ќе треба да покажат дека можат да спречат специфични штети - како што е генерирање слики од „соблекување“ без согласност - наместо едноставно да ветуваат заштитни мерки. Во пракса, ова ги турка компаниите кон демонстративни контроли, мерливо спроведување и јасно справување со грешки. Исто така, сигнализира дека „намерата“ е помалку важна од опипливите резултати и повторувачката превенција.
Како платформите можат да го намалат ризикот од длабоки фејкови генерирани од вештачка интелигенција без согласност?
Чест пристап е слоевита превенција: ограничување на потсетниците и резултатите поврзани со вистински луѓе, блокирање на барањата за стилизирање на „соблекување“ и откривање и запирање на обидите за генерирање сексуализирани слики без согласност. Многу канали додаваат ограничувања на брзината, посилно следење на идентитетот и злоупотребата и брзи работни процеси за отстранување откако ќе се прошири содржината. Целта не е само јазикот на политиката, туку алатките што издржуваат под непријателска употреба.
Зошто прикачувањата на документи за вистинска работа од страна на изведувачите на OpenAI предизвикуваат тревога?
Извештаите велат дека OpenAI (со партнер за обука на податоци) бара од изведувачите да прикачуваат артефакти од вистинска работа - документи, табеларни пресметки, групи и репозиториуми - за да ги евалуираат и подобрат агентите за вештачка интелигенција за канцелариски задачи. Загриженоста е што на изведувачите им е кажано сами да ги прочистуваат чувствителните детали, што може да биде склоно кон грешки. Адвокатите за приватност и интелектуална сопственост се загрижени дека оваа инструкција за „отстранување на доверливи работи“ е премногу двосмислена за вистински корпоративни материјали.
Кое е значењето на партнерството на Allianz со Anthropic на тема „агентска вештачка интелигенција“ во осигурувањето?
„Алијанц“ и „Антропик“ опишаа глобално партнерство фокусирано на продуктивноста на вработените, оперативната автоматизација со користење на агентска вештачка интелигенција и усогласеност по дизајн. Работните процеси во осигурувањето се сложени и строго регулирани, па затоа „агентски“ честопати подразбира автоматизирање на повеќечекорните процеси без губење на одговорноста. Акцентот на ревизорските траги и „чувањето сметки“ ја одразува практичната реалност: автоматизацијата се зголемува во регулираните индустрии само кога останува инспекциска и одбранлива.