🕵️ Велика Британија ќе соработува со Мајкрософт за изградба на систем за откривање на длабоки лажни проверки ↗
Велика Британија вели дека соработува со „Мајкрософт“, академици и други експерти за да изгради систем што може да открива длабоки фејкови на интернет - плус соодветен начин да се тестира дали алатките за детекција се функционални во дивината.
Акцентот е ставен на штетите што најтешко се нанесуваат: лажно претставување, измама и сексуална содржина без согласност. Не е гламурозно, но таму се концентрира штетата.
🧠 Anthropic објавува надградба на вештачката интелигенција, бидејќи пазарот ги казнува акциите на софтвер ↗
Anthropic претстави подобрен модел на Claude (Opus 4.6), кој нуди подобри перформанси во кодирањето и финансиите, плус можност за обработка на до 1 милион токени одеднаш. Тоа е многу контекст - како да му дадете на моделот цела библиотечна картичка.
Тие исто така се потпираат на „агенти“ преку Claude Code, каде што задачите можат да се поделат меѓу автономни помагачи. Практично, повеќе отколку што би очекувале - а исто така и вид на промена што ги прави инвеститорите во старомоден софтвер малку нервозни.
🧑💼 OpenAI ја претставува услугата за агенти за вештачка интелигенција како дел од напорите за привлекување бизниси ↗
OpenAI го објави „Frontier“, услуга фокусирана на претпријатија за креирање и управување со агенти на вештачка интелигенција - ботовите кои вршат специфични задачи како што се софтвер за дебагирање, ракување со работни процеси и слично.
Превртувањето е во тоа што е наменето да се вклучи во постоечката инфраструктура на компанијата, па дури и да поддржува агенти од трети страни, што се чита како OpenAI да се обидува да стане контролна соба - не само добавувач на модели. Амбициозно… или малку посесивно, во зависност од тоа како гледате на тоа.
🪖 САД и Кина се откажаа од заедничката декларација за употреба на вештачка интелигенција во војската ↗
Неколку земји потпишаа необврзувачка декларација со која се утврдуваат принципите за користење на вештачката интелигенција во војувањето - работи како што се човечка одговорност, јасни командни структури и сериозно тестирање и проценка на ризикот.
Но, САД и Кина не потпишаа. Што е целата приказна во еден незгоден момент - правилникот постои, а најголемите играчи… не го држат пенкалото.
🎭 Законодавството на Њујорк бара откривање на изведувачи генерирани од вештачка интелигенција во рекламирањето и ги зајакнува правата за објавување по смртта ↗
Њујорк потпиша закони со кои се бара од рекламите што користат „синтетички изведувачи“ генерирани од вештачка интелигенција јасно да го откријат тоа на публиката во државата - дури и ако огласувачот е со седиште на друго место. Всушност, работата е: не им откривајте лажен човек на луѓето и не го нарекувајте тоа маркетинг.
Одделно, државата ги зајакна правилата за комерцијална употреба на ликовите на починати луѓе, вклучително и дигиталните реплики. Искрено, малку е мрачно, но исто така е многу „добредојде во ерата кога идентитетот има потреба од сигурносен појас“
Најчесто поставувани прашања
Што гради Велика Британија со Мајкрософт за откривање на длабоки фалсификати на интернет?
Британија вели дека ќе соработува со „Мајкрософт“, академици и други експерти за да изгради систем што може да открива „длабоки лаги“ онлајн. Планот, исто така, вклучува создавање сигурен начин за тестирање дали алатките за детекција издржуваат надвор од лабораторијата. Фокусот останува на штетите што најмногу предизвикуваат: лажно претставување, измама и сексуална содржина без согласност.
По што ќе се разликува тестирањето „во дивината“ за детектори за длабоки лажни податоци од демо-верзии?
Заедно со самиот детектор, Британија нагласува начин за тестирање на алатките за откривање на длабоки лажни податоци во реални услови. Во многу канали, моделите изгледаат силно на курирани збирки на податоци, но ослабуваат кога се менуваат форматите на содржината, компресијата или контрадикторните тактики. Структурираниот пристап за евалуација помага конзистентно да се споредуваат алатките и открива каде откривањето не успева во живи онлајн средини.
Што промени Антропик во Клод Опус 4.6 и зошто е важно ограничувањето на токените?
Антропик вели дека Claude Opus 4.6 ги подобрува перформансите во области како што се кодирањето и финансиите и може да се справи со до 1 милион токени на контекст. Тој поголем контекстуален прозорец може да го олесни работењето низ долги документи или сложени бази на кодови без постојано повторно вчитување на информациите. Тие, исто така, ги истакнаа „агентите“ преку Claude Code, каде што задачите можат да се поделат меѓу автономни помагачи.
Што е OpenAI „Frontier“ и како се вклопува во работните процеси на претпријатијата?
OpenAI го најави „Frontier“ како услуга фокусирана на претпријатија за градење и управување со агенти за вештачка интелигенција кои извршуваат специфични задачи, како што се софтвер за дебагирање или ракување со работни процеси. Позиционирана е да се вклучи во постоечката инфраструктура на компанијата, наместо да служи како самостојна крајна точка на моделот. OpenAI исто така рече дека може да поддржува агенти од трети страни, што подразбира контролен слој за координирање на различни системи на агенти.
Што вели воената декларација за вештачка интелигенција и што значи таа за управувањето со вештачката интелигенција?
Декларацијата е опишана како необврзувачка и ги утврдува принципите за користење на вештачката интелигенција во војување, вклучувајќи човечка одговорност, јасни командни структури и сериозно тестирање и проценка на ризикот. Ројтерс објави дека многу земји потпишале, но САД и Кина не. За управувањето со вештачката интелигенција, таа одлука за исклучување е важна бидејќи ги остава најголемите играчи надвор од заедничкиот сет на наведени норми.
Што бараат новите правила на Њујорк за изведувачите генерирани од вештачка интелигенција во рекламите?
Њујорк потпиша закони со кои се бара рекламирањето кое користи „синтетички изведувачи“ генерирани од вештачка интелигенција јасно да го открие тој факт на публиката во државата, дури и ако огласувачот е со седиште на друго место. Одделно, државата ги зајакна правата за објавување по смртта околу комерцијалната употреба на ликови на починати луѓе, вклучително и дигитални реплики. Во практична смисла, ова го турка управувањето со вештачката интелигенција кон појасно етикетирање и построги контроли врз употребата на идентитетот.