Индонезија му дозволи на Илон Маск да продолжи со „Грок“ по забраната поради сексуализирани слики ↗
Индонезија ја укина суспензијата на Grok на xAI по забраната поврзана со сексуализирана содржина генерирана од вештачка интелигенција, а официјалните лица сигнализираа дека може да се врати под построг надзор.
Главната поента е притисокот за усогласеност: платформите можат брзо да се вратат, но само ако се обврзат на посилни заштитни мерки. Во основа, тоа е „добредојдовте назад, но не нè терајте да го правиме ова повторно“, што... е фер.
💰 „Оракл“ вели дека планира да собере до 50 милијарди долари долг и акции оваа година ↗
„Оракл“ вели дека сака да собере огромен дел од парите за проширување на капацитетот во облакот, експлицитно поврзувајќи го поттикот со побарувачката поттикната од вештачката интелигенција.
Тоа е сега мирниот образец: побарувачката за вештачка интелигенција се претвора во капитални трошоци, капиталните трошоци се претвораат во долг, и сите се преправаат дека ова е сосема нормално. И е… и не е.
🍜 „Таткото на луѓето“ Јенсен Хуанг ги турка добавувачите на Nvidia за време на посетата на Тајван, која беше опкружена со мафија ↗
Јенсен Хуанг го искористи јавното патување во Тајван за да ги пофали добавувачите, а исто така и да ги поттикне да го зголемат производството бидејќи побарувачката за вештачка интелигенција сè уште ги „преоптоварува“ сите сектори.
Тоа е половина турнеја на славни личности, половина преговори во синџирот на снабдување, што е реченица која не би требало да има смисла - но сега некако има смисла.
🧾 Хуанг од Nvidia вели дека разговорот за „инвестиција од 100 милијарди долари во OpenAI“ не бил обврска ↗
Извршниот директор на Nvidia се обиде да ги смири очекувањата околу идејата за масовна инвестиција поврзана со OpenAI, велејќи дека тоа не е обврска - повеќе како нешто што се оценува како што станува реалност.
Звучи како здодевно корпоративно препирање, но е важно бидејќи „интересот“ постојано се погрешно толкува како „завршена работа“. Изненадувачки лесно е да се направи кога бројките се толку големи.
🧠 Зошто научниците се тркаат да ја дефинираат свеста ↗
Група истражувачи тврдат дека немаме солидни, широко прифатени тестови за свест и дека јазот станува проблем како што вештачките системи и невротехнологијата стануваат поспособни.
Непријатниот дел е колку практично станува: без заеднички дефиниции, потешко е да се постават етички граници, да се напише политика, па дури и да се договори што се смета за штета. Тоа е како да се обидувате да поставите сообраќајни закони пред да одлучите што е „пат“... доволно блиску, но не и утешно.
Најчесто поставувани прашања
Зошто Индонезија ја укина забраната за Грок по проблемот со сексуализираните слики?
Службениците ја укинаа суспензијата откако забраната беше поврзана со сексуализирана содржина генерирана од вештачка интелигенција и посочија дека услугата би можела да се врати под построг надзор. Пораката е сведена на условно враќање. Платформите можат брзо да се вратат, но само ако се обврзат на посилни заштитни мерки. Тоа е ресетирање на усогласеноста, а не чист лист.
Какви заштитни мерки обично очекуваат регулаторите откако платформата со вештачка интелигенција ќе биде суспендирана поради сексуализирана содржина?
Типично, регулаторите сакаат појасни политики за содржина, посилно филтрирање и побрзи работни процеси за отстранување на високоризични резултати. Вообичаен пристап вклучува подобрено известување од корисниците, попроактивно следење и документирани патеки за ескалација. Тие исто така може да очекуваат транспарентност за тоа што се променило и како ќе се спречи повторување. Во многу канали, „надзор“ значи тековни проверки, а не еднократно поправање.
Зошто Oracle собира до 50 милијарди долари и што вели за побарувачката за вештачка интелигенција?
„Оракл“ вели дека планира да собере голема количина на долг и капитал за да го прошири капацитетот во облакот, експлицитно поврзувајќи го поттикот со побарувачката поттикната од вештачката интелигенција. Тоа се вклопува во позната јамка: побарувачката за вештачка интелигенција ги движи големите капитални трошоци, а капиталните трошоци често го движат финансирањето. Може да биде рационално ако употребата продолжи да расте, но исто така ги зголемува влоговите ако побарувачката се намали.
Што ни кажува Nvidia за ограничувањата во побарувачката и понудата на вештачка интелигенција преку притискање на добавувачите во Тајван?
Јенсен Хуанг ја искористи многу јавната посета за да ги пофали добавувачите, а воедно и да ги повика да го зголемат производството, бидејќи побарувачката за вештачка интелигенција сè уште троши капацитет. Таа мешавина од добра волја и притисок е сигнал за синџирот на снабдување. Таа сугерира дека ограничувањата остануваат реални дури и кога сите го слават растот. Во пракса, пропусниот опсег на добавувачите станува стратешко тесно грло.
Дали OpenAI навистина имаше обврска за инвестиција од 100 милијарди долари од Nvidia?
Не - извршниот директор на Nvidia рече дека разговорот за „инвестиција од 100 милијарди долари во OpenAI“ не бил обврска. Тој бил повеќе формулиран како нешто за да се процени дали и кога ќе стане конкретно. Таа разлика е важна бидејќи јавниот „интерес“ може погрешно да се протолкува како завршена работа. Со толку големи бројки, дури и случајните шпекулации можат да ги нарушат очекувањата.
Зошто научниците се тркаат да ја дефинираат свеста и зошто е тоа важно за вештачката интелигенција и невротехнологијата?
Истражувачите тврдат дека сè уште немаме солидни, широко прифатени тестови за свест, а тој јаз станува сè поитен како што системите со вештачка интелигенција и невротехнологијата стануваат сè поспособни. Без заеднички дефиниции, потешко е да се постават етички граници, да се пишуваат политики, па дури и да се договори што се смета за штета. Практичниот ризик е регулирање на моќни системи без стабилен концепт на цел.