Вести за вештачката интелигенција, 4 март 2026 година

Резиме на вестите за вештачката интелигенција: 4 март 2026 година

🏛️ Владата ќе создаде нова лабораторија за да ја одржи Велика Британија во брзата лента за откритија во вештачката интелигенција

Велика Британија основа лабораторија за истражување на фундаменталната вештачка интелигенција поддржана од владата, претставувајќи ја како работа од типот „сино небо“ - од типот што е ризична, бавна и понекогаш се исплатлива на начин што ги прави сите други да изгледаат како да задремале. ( GOV.UK )

Фокусот не е само „поголеми модели, повеќе графички процесори“ - туку е справување со постојани недостатоци како халуцинации, кратко памтење и непредвидливо расудување, плус давање пристап на истражувачите до сериозно пресметување преку AI Research Resource. Звучи многу разумно… а исто така, тивко, како обид да се спречи најдобрите умови во Велика Британија веднаш да бидат усисани на друго место. ( GOV.UK )

🧨 Извршниот директор на Nvidia навестува крај на инвестициите во OpenAI и Anthropic

Јенсен Хуанг сигнализира дека Nvidia можеби нема да продолжи да инвестира во лаборатории за вештачка интелигенција на ист начин - со динамиката на IPO (и самиот обем на проверки за кои се дискутира) што го отежнува спроведувањето на тој стил на финансирање. ( Ројтерс )

Тоа е тонална промена што вреди да се следи: Nvidia е кралот на трње и лопати во целиот овој бум, но сепак навестува дека „поседувањето делови од рударите“ веќе не е секогаш игра. Или можеби само се брани гласно, што извршните директори го прават, како да дишат. ( Ројтерс )

🧩 Ексклузивно: Голема технолошка група ја поддржува Антропик во борбата во Пентагон, додека инвеститорите се залагаат за деескалација на судирот околу заштитните мерки за вештачка интелигенција

Кризата на Антропик со Пентагон се претвора во целосен експрес-лонец - инвеститорите наводно сакаат температурата да се намали, додека компанијата се обидува да се држи до својата линија на заштитни зборови (особено околу надзорот). ( Ројтерс )

Подтекстот на приказната е речиси погласен од самиот текст: во ерата на вештачката интелигенција, формулацијата на договорите не е „правно допирање“, туку е во основа политика на производот - и таа одлучува дали моделот ќе стане алатка, оружје или сеопфатна одговорност. ( Ројтерс )

🪖 Сем Алтман признава дека OpenAI не може да ја контролира употребата на вештачка интелигенција од страна на Пентагон

Алтман наводно им рекол на вработените дека OpenAI не може да контролира како Пентагон ја користи својата вештачка интелигенција откако ќе биде распоредена - што се случува со силен удар бидејќи го именува точниот страв што луѓето го опкружуваат. ( Гардијан )

Пошироката позадина е ескалација на триењето помеѓу „ќе помогнеме, со правила“ и „ќе помогнеме, точка“, плус внатрешен и јавен отпор кога военото усвојување се чини избрзано или опортунистичко. Етиката овде е помалку уредна реплика, а повеќе влажно истурање боја - сите се мешаат во тоа, а потоа се расправаат за тоа чија е чевлата. ( Гардијан )

🧬 Нова стипендија за вештачка интелигенција во геномијата со Институтот Сангер и Google DeepMind

Институтот „Велкам Сангер“ започнува академска стипендија финансирана од DeepMind, фокусирана на примена на вештачката интелигенција во геномијата - позиционирана како прва од ваков вид позиција за стипендист на DeepMind во оваа специфична област. ( sanger.ac.uk )

Она што е интересно (и, искрено, малку освежувачко) е акцентот на недоволно истражените проблеми со геномијата каде што вештачката интелигенција не е веќе насекаде - плус експлицитната забелешка дека DeepMind не го насочува истражувањето на соработникот. Тоа е како да му дадете на некого ракета и да му кажете „оди откриј нешто“, наместо „оди оптимизирај го нашиот план“. ( sanger.ac.uk )

Најчесто поставувани прашања

Што е Лабораторијата за истражување на фундаменталната вештачка интелигенција, поддржана од британската влада, и што ќе прави таа?

Лабораторијата за истражување на фундаменталната вештачка интелигенција, поддржана од владата, се позиционира како истражувачки напор „сино небо“ - работа со висок ризик за која може да биде потребно време за да се исплати. Наместо да се концентрира само на скалирање на сè поголеми модели, таа има за цел да се справи со постојаните проблеми како што се халуцинации, кратко памтење и непредвидливо расудување. Поентата е дека откритијата доаѓаат од фундаменталните принципи, а не само од додавање на повеќе графички процесори.

Како може Лабораторијата за истражување на фундаменталната вештачка интелигенција во Велика Британија да им помогне на истражувачите да пристапат до сериозни компјутерски технологии?

Заедно со британската Лабораторија за фундаментални истражувања на вештачката интелигенција, планот го нагласува пристапот до значително пресметување преку ресурсите за истражување на вештачката интелигенција. Во пракса, тоа има тенденција да значи дека истражувачите можат да спроведуваат експерименти кои инаку би биле ограничени од трошоците или инфраструктурата. Исто така, им овозможува на тимовите да тестираат идеи на ниво каде што проблемите како што се сигурноста и робусноста стануваат конкретни, а не само теоретски.

Зошто Велика Британија става акцент на халуцинациите, краткото памтење и непредвидливото расудување?

Тие слабости се од типот што се појавуваат при имплементацијата и можат брзо да ја поткопаат довербата. Наведениот фокус сугерира дека целта не е само способност, туку и сигурност - намалување на измислените резултати, подобрување на начинот на кој моделите се справуваат со подолг контекст и намалување на непредвидливоста при расудувањето. Таквиот вид работа е често побавен и поризичен, поради што се смета за фундаментално истражување.

Што всушност сигнализира промената на тонот на Nvidia во врска со инвестирањето во OpenAI или Anthropic?

Извештајот го прикажува ова како навестување дека Nvidia можеби нема да продолжи да инвестира во водечки лаборатории на ист начин, особено затоа што динамиката на IPO и огромните големини на чекови ја комплицираат таа стратегија. Дури и како лидер во „изборот и лопатата“ во хардверот за вештачка интелигенција, тоа сугерира дека сопственичките удели не се секогаш најдобрата опција. Исто така, може да бидат претпазливи пораки, што е вообичаено во коментарите на раководителите.

Зошто спорот на Антропик во Пентагон околу „заштитниот јазик“ е толку голем проблем?

Клучната поента на статијата е дека формулацијата на договорот може да стане политика на производот - особено кога се однесува на надзор и други чувствителни употреби. Инвеститорите наводно сакаат да го деескалираат судирот, додека компанијата се обидува да ја задржи својата позиција во однос на заштитните мерки. Во многу распоредувања на вештачката интелигенција, тие клаузули го обликуваат за што може да се користи системот и какви ризици компанијата ефикасно ги прифаќа.

Што значи кога Сем Алтман вели дека OpenAI не може да контролира како Пентагон ја користи вештачката интелигенција?

Опишува практично ограничување: откако ќе се распореди алатката, оригиналниот развивач може да има ограничена способност да ја регулира употребата понатаму. Тоа е многу важно бидејќи укажува на основниот страв што луѓето го создаваат во врска со военото усвојување - правилата може да постојат во фазата на склучување договори, но спроведувањето може да биде тешко. Исто така, одразува поширока тензија помеѓу „помош, со ограничувања“ и „помош, без оглед на тоа“

Вчерашни вести за вештачката интелигенција: 3 март 2026 година

Пронајдете ја најновата вештачка интелигенција во официјалната продавница за асистенти за вештачка интелигенција

За нас

Назад кон блогот