🦞 Основачот на OpenClaw, Стајнбергер, се приклучува на OpenAI, бот со отворен код станува фондација ↗
Питер Штајнбергер се упатува кон OpenAI за да промовира „лични агенти“, додека самиот OpenClaw е сместен во фондација за да остане со отворен код (и поддржан). Таа поделба е… малку паметна - ангажирај го градителот, а проектот држи го јавен.
Предлогот на OpenClaw е освежително практичен: тријажа на е-пошта, документација за осигурување, пријавување на летови, досадни задачи за животно администрирање. Исто така, е преплавен и на GitHub, а таа популарност предизвика загриженост за безбедноста, особено ако луѓето го користат невнимателно.
🪖 Пентагон е „заситен“ од антропогениот отпор околу употребата на моделот на вештачка интелигенција Клод од страна на војската, па може да ги прекине врските, се вели во извештајот ↗
Основната борба: Пентагон сака широк пристап „за сите законски цели“, а Антропик сè уште се обидува да одржи строги ограничувања околу целосно автономното оружје и масовниот надзор. Тоа е вид на несогласување што звучи филозофски сè додека некој не каже: „Можеби ќе ве замениме“
Една потценета маана - службениците не сакаат моделот одеднаш да ги блокира работните процеси на средина од процесот, а не сакаат и засекогаш да преговараат за екстремни случаи (фер... но исто така и леле). Тука постои вистинска тензија „кој ги држи клучевите“, и таа не е суптилна.
🧠 Модел на градење на стартап за предвидување на човековото однесување ↗
Симил вложи 100 милиони долари за да изгради модел на „ограничено учење“ насочен кон предвидување што би можеле да прават луѓето - вклучително, многу конкретно, предвидување на веројатни прашања во работи како што се повиците за заработка. Тесна цел, голема амбиција, малку морничава комбинација.
Пристапот се потпира на интервјуа со реални луѓе плус податоци од истражувања на однесувањето, а потоа извршува симулации со агенти на вештачка интелигенција наменети да ги одразат реалните преференции. Тоа е како да се прави временски модел за човечки одлуки… што звучи невозможно сè додека не е невозможно.
🧑⚖️ Информации: Белата куќа врши притисок врз пратеникот од Јута да го поништи законот за транспарентност на вештачката интелигенција ↗
Заложбата за транспарентност на вештачката интелигенција на државно ниво во Јута добива директна критика од Белата куќа, а официјалните лица го повикуваат спонзорот на законот да не го покренува. Формулацијата на законот е целосно насочена кон транспарентноста и безбедноста на децата - тешко е да се оспори со чиста оптика.
Но, поголемата борба е јурисдикциска: кој ги поставува правилата, државите или федералната влада. И да, тоа е ржење - како двајца луѓе да го фатат истиот волан и да инсистираат дека тие се мирните.
🎬 ByteDance ветува дека ќе спречи неовластена употреба на IP адреса на алатка за видео со вештачка интелигенција по заканата од Дизни ↗
Дизни испрати прекин на употребата на генераторот на видео со вештачка интелигенција на ByteDance, а ByteDance вели дека ги зајакнува заштитните мерки за да се спречи неовластена употреба на интелектуална сопственост и сличност. Жалбата - наводно - е дека алатката може да ги прикаже познатите ликови од франшизата како да се само… налепници од јавен домен.
Тоа е судирот што сите го очекуваа: вирусните видео алатки со вештачка интелигенција се движат брзо, студијата се активираат во судски постапки, а „ќе додадеме заштитни мерки“ станува стандарден јазик за извинување. Во еден пресврт, технологијата изгледа како магија - а правната страна изгледа како гравитација.
Најчесто поставувани прашања
Што значи тоа што основачот на OpenClaw се приклучи на OpenAI додека OpenClaw се пресели во фондација?
Тоа сигнализира поделба помеѓу лицето кое гради „лични агенти“ и проектот кој останува јавно управуван. Приклучувањето на Штајнбергер кон OpenAI сугерира дека ќе се концентрира на унапредување на производи во стилот на агент таму. Ставањето на OpenClaw во фондација има за цел да го одржи со отворен код и одржливо поддржан. Во пракса, овој потег има за цел да ја зачува довербата на заедницата, додека градителот оди таму каде што се ресурсите.
Зошто агентите на вештачка интелигенција, во стилот на OpenClaw, се фокусирани на домашни работи како што се е-пошта и документација?
Бидејќи „администраторската работа во животот“ е повторувачка, базирана на правила и одзема многу време, што ја прави практична цел за автоматизација. Примерите овде - тријажа на е-пошта, документација за осигурување и пријавување на летови - се тесни задачи со јасни критериуми за успех. Тој фокус може да ги направи агентите да се чувствуваат вредни порано од поотворените асистенти. Исто така, нагласува зошто внимателните контроли на пристап се важни кога агентите допираат лични сметки.
Како можете да распоредите агент за вештачка интелигенција со отворен код како OpenClaw без да создадете безбедносни проблеми?
Третирајте го како софтвер што може да гледа чувствителни податоци, а не како играчка скрипта. Вообичаен пристап е да се заклучат акредитивите, да се ограничат дозволите на потребниот минимум и да се водат логови и траги од ревизија. Извршете го во ограничена средина и одвојте го од системите со висока вредност. Многу безбедносни грижи произлегуваат од невнимателно распоредување, особено кога луѓето изложуваат крајни точки или токени без силни заштитни мерки.
Зошто Пентагон е незадоволен од ограничувањата на Антропик за Клод за воена употреба?
Спорот се фокусира на обемот и контролата: Пентагон сака широк пристап „за сите законски цели“, додека Anthropic е опишан како човек што држи строги ограничувања околу целосно автономното оружје и масовниот надзор. Службениците исто така не сакаат моделите да ги блокираат работните процеси во средината или да бараат бесконечни преговори. Таа тензија е помалку апстрактна отколку што звучи - станува збор за тоа кој одлучува што може да прави моделот во реални операции.
Како стартапите се обидуваат да го предвидат човековото однесување со вештачка интелигенција и зошто тоа се чини контроверзно?
Примерот овде, Симиле, се стреми кон модел на „ограничено учење“ насочен кон предвидување на тоа што би можеле да прават луѓето, вклучително и предвидување на веројатни прашања во контексти како што се повици за заработка. Опишаниот пристап ги спојува интервјуата со податоци од истражувања на однесувањето и симулации со употреба на агенти од вештачката интелигенција наменети да ги одразат реалните преференции. Се чувствува морничаво бидејќи ја префрла вештачката интелигенција од одговарање на луѓето кон нивно предвидување. Предизвикот е да се одржат тврдењата ограничени и да се избегне прекумерна самодоверба.
Што се случува кога видео алатките со вештачка интелигенција генерираат ликови заштитени со авторски права, како во судирот меѓу ByteDance и Disney?
Пријавениот модел е познат: студио издава прекин на употребата, а платформата реагира со зајакнување на заштитните мерки за спречување на неовластена употреба на интелектуална сопственост или сличност. Во многу алатки, заштитните мерки значат построги филтри за содржина, подобрено откривање на препознатливи ликови и појасно спроведување на политиките за корисници. Основниот конфликт е брзината наспроти одговорноста - генерирањето на вируси се движи брзо, а спроведувањето на правата делува како гравитација. Очекувајте повеќе од овие судири како што се шират видео генераторите.