⚖️ Антропик тужи за да го блокира ставањето на Пентагон на црна листа поради ограничувањата за употреба на вештачка интелигенција ↗
„Антропик“ ја префрли својата борба против Пентагон на суд откако беше етикетирана како ризик за синџирот на снабдување. Компанијата вели дека потегот бил незаконска одмазда за одбивањето да се олабават заштитните огради околу автономното оружје и домашниот надзор - што го става овој спор меѓу најзапаливите точки на жариште во политиката за вештачката интелигенција во моментов. ( Ројтерс )
Владата сака флексибилност за „секоја законска употреба“, додека Антропик тврди дека на приватните лаборатории сè уште треба да им биде дозволено да повлекуваат цврсти безбедносни граници. Ова стана еден од најјасните тестови досега за тоа дали компанијата за вештачка интелигенција може да каже „не“ на воените услови без да биде критикувана за тоа. ( Ројтерс )
🧑💻 Вработените во OpenAI и Google ја поддржуваат тужбата на Anthropic против Пентагон ↗
Таа тужба брзо доби поддршка и од конкурентските лаборатории. Речиси 40 вработени од OpenAI и Google го поддржаа Anthropic во пријателски налог, тврдејќи дека одмаздата против фирмите поради црвените линии за безбедност на вештачката интелигенција е спротивна на јавниот интерес. ( The Verge )
Значи да, конкурентите одеднаш се најдоа на иста страна - барем во оваа точка. Краткиот опис се фокусира на масовниот надзор и несигурното автономно оружје, што ја прави целата работа помалку да личи на стандардно критикување од Силиконската долина, а повеќе на вистинска индустриска линија во песок... или кал, можеби. ( The Verge )
🛡️ OpenAI го купува Promptfoo за да ги обезбеди своите агенти за вештачка интелигенција ↗
OpenAI соопшти дека го купува Promptfoo, стартап компанија фокусирана на заштита на големи јазични модели од непријателски напади. Планот е да ја вклучи својата технологија во OpenAI Frontier, корпоративната платформа на компанијата за агенти за вештачка интелигенција. ( TechCrunch )
Тоа е значаен потег. Секој сака агентската вештачка интелигенција да прави повеќе, побрзо, насекаде - но безбедносната страна заостанува, без разлика дали малку или многу. Овој договор сугерира дека OpenAI мисли дека следната голема трка не е само за попаметни агенти, туку и за побезбедни. ( TechCrunch )
🧪 Anthropic лансира алатка за преглед на код за проверка на поплавата од код генериран од вештачка интелигенција ↗
Anthropic го претстави Code Review во Claude Code, наменет за тимови кои се „даваат“ на барања за повлекување креирани од алатки за кодирање со вештачка интелигенција. Користи повеќе агенти паралелно за скенирање на код, означување на логички проблеми, рангирање на сериозноста и оставање коментари директно во GitHub. ( TechCrunch )
Предлогот е доволно едноставен - вештачката интелигенција генерира код побрзо отколку што луѓето можат разумно да го разгледаат, па сега вештачката интелигенција мора да ја разгледа. Малку „змијојадење на опашката“ аранжман, но сепак практичен. Anthropic вели дека е насочен кон корпоративните корисници кои веќе гледаат масивен излез на код од Claude Code. ( TechCrunch )
💰 Nscale, поддржан од Nvidia, проценет на 14,6 милијарди долари во нова рунда на финансирање ↗
Британската компанија за инфраструктура на вештачка интелигенција Nscale собра 2 милијарди долари во рунда од Серија C, достигнувајќи проценка од 14,6 милијарди долари. Меѓу поддржувачите беа Aker, 8090 Industries, Nvidia, Citadel, Dell и Jane Street - што претставува прилично силен глас на доверба. ( Ројтерс )
Ова е важно бидејќи не е уште едно лансирање на модел или прилагодување на четбот. Тоа е страната на бумот со трпезариски работи - компјутери, инфраструктура, капацитет, целата тешка машинерија зад завесата. Можеби не е гламурозно, но таму сега се трошат голем дел од парите. ( Ројтерс )
🧠 AMI Labs на Јан ЛеКун собира 1,03 милијарди долари за изградба на светски модели ↗
Новиот потфат на Јан ЛеКун, AMI Labs, собра 1,03 милијарди долари со проценка пред плаќањето од 3,5 милијарди долари. Компанијата се стреми кон „светски модели“ - системи со вештачка интелигенција наменети да учат од самата реалност, а не првенствено од јазикот. ( TechCrunch )
Тоа е директен филозофски удар врз моменталниот консензус кој е претежно застапен во LLM, и тоа особено директен. ЛеКан со години тврди дека денешните јазични модели нема да нè однесат до човечка интелигенција, па затоа ова покачување го претвора тој аргумент во многу скап експеримент. ( TechCrunch )
🇨🇳 Кинеските технолошки центри го промовираат агентот за вештачка интелигенција OpenClaw и покрај безбедносните предупредувања ↗
Неколку кинески локални самоуправи го поддржуваат OpenClaw, агент за вештачка интелигенција кој се шири брзо и покрај безбедносните загрижености поврзани со неговиот пристап до лични податоци. Значи, официјалното расположение се чини дека е: да, постојат ризици - и да, ајде да го прошириме во секој случај. ( Ројтерс )
Таа поделба е приказната. Локалните центри сакаат економски раст и моментум на екосистемот, додека регулаторите предупредуваат за изложеност на податоци. Тоа е веќе познат модел на вештачка интелигенција - прво спринт, подоцна средете ги заштитните огради, барем така изгледа. ( Ројтерс )
Најчесто поставувани прашања
Зошто Антропик го тужи Пентагон за ограничувањата за употреба на вештачка интелигенција?
Антропик вели дека Пентагон го означил ова како ризик за синџирот на снабдување откако компанијата одбила пошироки услови што би можеле да се прошират на автономно оружје и домашен надзор. Тоа ја прави тужбата повеќе од статус на добавувач. Се тестира дали лабораторијата за вештачка интелигенција може да одржува цврсти безбедносни ограничувања и сепак да се натпреварува за владина работа без да биде казнета.
Зошто вработените во OpenAI и Google ја поддржуваат Anthropic во овој спор околу безбедноста на вештачката интелигенција?
Краткиот извештај „amicus“ сигнализира дека многу луѓе во конкурентските лаборатории го гледаат ова како прашање за безбедност на вештачката интелигенција што поставува преседан, а не само како борба помеѓу една компанија и една агенција. Нивната загриженост е дека казнувањето на добавувачот за одржување на црвените линии би можело да изврши притисок врз поширокиот пазар да ги ослабне заштитните мерки. Во пракса, тоа би можело да го обликува начинот на кој се преговараат идните договори за вештачка интелигенција во одбраната и јавниот сектор.
Што би можел случајот Антропико-Пентагон да промени за политиката на вештачката интелигенција и договорите за одбрана?
Ако Anthropic победи, компаниите за вештачка интелигенција може да имаат посилна основа за да дефинираат неприфатливи употреби дури и кога продаваат во чувствителни владини средини. Ако изгуби, агенциите би можеле да добијат предност да бараат пошироки услови за „законска употреба“ од добавувачите. Во секој случај, овој спор веројатно ќе влијае на јазикот на набавките, прегледите на ризиците и начинот на кој безбедносните огради се вметнати во договорите за одбрана.
Зошто OpenAI го купи Promptfoo за агенти на вештачка интелигенција?
Promptfoo е познат по тестирањето на големи јазични модели наспроти контрадикторни потсетници и други безбедносни слабости. Вклучувањето на таков вид алатки во платформата за претпријатиски агенти на OpenAI сугерира дека компанијата го гледа побезбедното распоредување како конкурентска предност, а не како споредна задача. Бидејќи агентите на вештачката интелигенција преземаат посуштинска работа, тестирањето на отпорноста и злоупотребата станува многу потешко да се игнорира.
Како тимовите можат побезбедно да се справат со поплавата од код генериран од вештачка интелигенција?
Новата функција за преглед на код на Anthropic во рамките на Claude Code е наменета за тимови преоптоварени од барања за повлекување генерирани од алатки за кодирање со вештачка интелигенција. Таа користи повеќе агенти паралелно за да ги забележи логичките проблеми, да ја рангира сериозноста и да остави коментари во GitHub. Типично, алатки како оваа помагаат во тријажата на обемот, но човечките прегледувачи сè уште се важни за архитектурата, контекстот и конечното одобрување.
Зошто инфраструктурата за вештачка интелигенција добива толку многу инвестиции токму сега?
Најновата рунда на финансирање на Nscale истакнува дека индустријата за вештачка интелигенција сè уште вложува огромен капитал во компјутерската технологија, инфраструктурата и капацитетот. Тоа трошење можеби е помалку видливо од лансирањето на блескав модел, но е основа за сè друго. Кога побарувачката за обука и распоредување продолжува да расте, компаниите што ги продаваат кревачите и лопатите честопати стануваат едни од најголемите победници.
Што се светски модели и зошто Јан Лекун се обложува на нив?
Светските модели се системи со вештачка интелигенција дизајнирани да учат од тоа како се однесува светот, наместо првенствено да се потпираат на јазични податоци. Тоа е важно бидејќи Јан ЛеКун долго време тврди дека јазичните модели сами по себе веројатно нема да достигнат интелигенција на човечко ниво. AMI Labs го претвора тој став во голем комерцијален облог на поинаков пат за напредно истражување на вештачката интелигенција.
Зошто кинеските технолошки центри го поддржуваат OpenClaw и покрај безбедносните предупредувања?
Приказната за OpenClaw покажува позната поделба во брзорастечките технолошки пазари: локалните самоуправи сакаат раст, субвенции и моментум на екосистемот, додека регулаторите се грижат за изложеноста на податоци и безбедноста. Поддршката на агентот и покрај предупредувањата сугерира дека економските стимулации преовладуваат на некои места. За набљудувачите, ова е уште еден потсетник дека усвојувањето честопати се одвива побрзо од надзорот.