🧠 Nvidia вели дека ќе размисли за инвестирање во OpenAI IPO, изјави Хуанг за CNBC ↗
Јенсен Хуанг од Nvidia јавно сигнализираше дека компанијата е сè уште отворена за поддршка на следното мега-собирање средства на OpenAI - па дури и евентуално IPO. Тоа носи енергија од типот „добро сме, сè е во ред“... но, исто така, тоа е дел од пораката.
Муабетот овде е од голем обем: постојано циркулира разговор за масивна рунда (и масивна проценка), додека извештаите, исто така, наговестуваат дека OpenAI разгледува алтернативи за некои од најновите чипови на Nvidia. Никој не вели „раскинување“ на глас, но во кујната се слуша слаб мирис на чад.
🏭 Извршниот директор на Интел вели дека компанијата ќе произведува графички процесори, популаризирани од Нвидија ↗
Извршниот директор на Интел, Лип-Бу Тан, вели дека Интел се насочува кон графичките процесори - златната треска, кревачите и лопатките на модерната вештачка интелигенција. И да, тоа е стапнување на теренот на Нвидија со чизми на глава.
Интел, исто така, ангажираше виш архитект (претходно во Qualcomm) за да ги води напорите за графичките процесори, со почетен фокус на центри за податоци. Подтекстот е јасен: ако сакате да се вратите на разговорот за AI пресметување, ви треба сериозна приказна за графичките процесори, а не само пакет слајдови.
🕵️♀️ ICO објави истрага за Грок ↗
Британскиот надзорен орган за заштита на податоци формално истражува ракување со лични податоци поврзано со Grok, плус потенцијалот на системот да генерира штетни сексуализирани слики. Тој втор дел е аларм што можете да го чуете од другата страна на улицата.
Сондата ги именува и ентитетот X што ги контролира податоците во контекст на ЕУ/ЕЕА и самата xAI - во основа: „кој ја изградил, кој ја водел, кој ја пуштил на слобода?“ Тоа е еден од оние моменти кога „брзо се движи“ се среќава со „документација што гризе“
💻 OpenAI се префрла кон автономен тимски модел со лансирањето на Codex Desktop ↗
OpenAI наводно лансираше macOS десктоп апликација за Codex, обликувајќи ја помалку како автоматско дополнување, а повеќе како управување со мали агенти за кодирање што извршуваат задачи паралелно. Тоа е или иднината на софтверот - или многу скап начин да се измислат нови класи на грешки.
Предлогот е „долготрајни задачи“ плус надзор, со делови како што се „sandboxing“ и алатки за работен тек за да се спречат агентите да го „газат“ вашето складиште. Тоа е промена во ставот: не пишувате, туку режирате - како филмски сет каде што актерите повремено го преработуваат сценариото.
🧯 „Ширење на длабоките фејкови и повеќе придружници на вештачката интелигенција“: седум заклучоци од најновиот извештај за безбедноста на вештачката интелигенција ↗
Објавен е голем меѓународен извештај за безбедноста на вештачката интелигенција, во кој во основа се вели дека способноста е во пораст - но контролата е сè уште нестабилна. Извештајот означува „нерамни“ перформанси (брилијантни во една секунда, самоуверено погрешни во следната), што е… болно познато.
Исто така, се повикува на забрзување на длабоките фејкови, зголемената популарност на придружниците со вештачка интелигенција (со m•s•s•y ) и незгодниот проблем со двојна употреба во био/хемиското знаење. Вибрацијата е: моторот се забрза, воланот не.
Најчесто поставувани прашања
Што рече Nvidia за инвестирањето во OpenAI IPO и зошто е тоа важно?
Извршниот директор на Nvidia, Јенсен Хуанг, изјави дека компанијата ќе размисли за инвестирање доколку OpenAI на крајот стане јавна, што е сигнал дека врската останува стратешки значајна. Во овој циклус на вести за вештачка интелигенција, подтекстот е обем: поголемите рунди на финансирање имаат тенденција да се претворат во поголема побарувачка за компјутери. Исто така, ова се толкува како тивко уверување за пазарите дека големите партнерства со вештачка интелигенција можат да останат стабилни дури и под конкурентски притисок.
Дали OpenAI бара алтернативи за најновите чипови на Nvidia?
Извештаите сугерираат дека OpenAI разгледува алтернативи за некои од најновите чипови на Nvidia, а тоа може да укаже на неколку практични мотивации. Во многу процеси, тимовите оценуваат повеќе добавувачи за да ги намалат трошоците, да ги избегнат тесните грла во снабдувањето или да ги подесат перформансите за специфични работни оптоварувања. Тоа не подразбира автоматски распад - почесто одразува моќ, вишок и континуирана оптимизација во брзо менувачкиот хардверски пејзаж.
Зошто Интел одеднаш става акцент на графичките процесори за работни оптоварувања со вештачка интелигенција?
Извршниот директор на Интел, Лип-Бу Тан, изјави дека Интел ќе произведува графички процесори, со почетен фокус на центри за податоци - експлицитен премин во основната територија на Нвидија. Графичките процесори се „клучни алатки“ за модерна обука и заклучување со вештачка интелигенција, па затоа веродостојна мапа на патот за графички процесори е директен пат назад во разговорот за пресметување. Оваа вест за вештачката интелигенција, исто така, сугерира дека Интел сака да се натпреварува во длабочината на платформата, а не само во процесорите.
Што истражува британската ICO за Grok и xAI?
Канцеларијата на комесарот за информации на Обединетото Кралство (ICO) објави формална истрага за ракувањето со лични податоци поврзано со Grok и потенцијалот на системот да генерира штетни сексуализирани слики. Истрагата ги именува и ентитетот X што ги контролира податоците во контекст на ЕУ/ЕЕА и xAI, фокусирајќи се на тоа кој е одговорен за што. Вообичаените исходи во вакви случаи вклучуваат барања за информации, потребни промени во процесот и потенцијални мерки за спроведување.
Што е Codex Desktop и како „агентите за кодирање“ ја менуваат секојдневната работа?
Codex Desktop е опишан како macOS апликација позиционирана помалку како автоматско дополнување, а повеќе како начин за надгледување на паралелни, долготрајни задачи за кодирање. Вообичаен пристап е агентите да се третираат како помлади соработници: доделување работа со тесен опсег, барање контролни точки и преглед на резултатите пред спојување. Алатките како што се sandboxing и заштитните огради за работниот тек се важни бидејќи агентските системи можат да се движат брзо - а исто така можат да воведат нови, изненадувачки режими на дефекти.
Кои се најголемите заклучоци од најновиот извештај за безбедност на вештачката интелигенција (длабоки фејкови, придружници, двојна употреба)?
Извештајот истакнува дека способностите на вештачката интелигенција се забрзуваат, додека контролата останува нееднаква, вклучувајќи „нерамни“ перформанси кои можат да се менуваат од одлични до сигурно погрешни. Исто така, се забележуваат забрзани длабоки лажни проверки, растечка употреба на придружници на вештачката интелигенција со ризици од емоционална поврзаност и загриженост за двојна употреба во био/хемиското знаење. Како одговор на тоа, организациите обично инвестираат во следење, црвено здружување, заштитни огради за политики и јасни патеки за ескалација кога моделите се однесуваат неочекувано.