🏗️ САД ги туркаат компаниите кон нов „компактен“ центар за податоци со вештачка интелигенција, објави Политико ↗
Според извештаите, САД се обидуваат да ги убедат големите фирми да потпишат нов „компактен“ договор за центри за податоци со вештачка интелигенција - во суштина пакет обврски за тоа како треба да се ракува со овие огромни градби на компјутерски системи.
Деталите се сè уште малку нејасни (класично), но насоката изгледа позната: стандардизирање на очекувањата околу енергијата, безбедноста, а можеби и известувањето - учтива верзија на политиката на „ве молам, не дозволувајте ова да се претвори во хаос“
🎬 Гугл тужен од Аутодеск поради софтвер за снимање филмови со вештачка интелигенција ↗
„Аутодеск“ го тужи „Гугл“ поради името „Флоу“, велејќи дека веќе го користеле „Флоу“ за софтвер за продукција и управување со визуелни ефекти - а алатката на „Гугл“ за снимање филмови со вештачка интелигенција пристигна со истото брендирање.
Поостриот детаљ е тврдењето дека Google претходно сугерираше дека нема да го комерцијализира името... а потоа сепак продолжи и продолжи со тежнеењето кон трговски марки. Секако, тоа е борба за трговски марки, но исто така носи и енергија од мал обем „голема платформа наспроти специјализиран производител на алатки“.
🏥 Студијата покажува дека вештачката интелигенција не е подобра од другите методи за пациенти кои бараат медицински совет ↗
Нова студија покажа дека користењето на вештачка интелигенција за медицински совети на пациенти не ги надминува другите пристапи - што не е изненадувачки и е малку смирувачко, во зависност од тоа колку напорно сте ги набљудувале проверувачите на симптоми.
Тоа не значи дека вештачката интелигенција е бескорисна во здравството - само тоа „прашај бот“ не е автоматски надградба во однос на постојните опции, особено кога точноста и безбедноста се целата поента.
🩺 Апликациите и ботовите управувани од вештачка интелигенција се нафрлаат на медицината. Лекарите имаат прашања. ↗
Истрагата истражува како здравствените апликации со вештачка интелигенција и чет-ботовите се прошируваат во клиничките простори - понекогаш побрзо отколку што можат да следат упатствата, надзорот или обичните докази.
Лекарите изразуваат загриженост во врска со сигурноста, штетата врз пациентите и кој е одговорен кога бот дава совет што звучи самоуверено, но погрешно… како сателитска навигација што инсистира да влезете во езеро, освен со лекови.
📈 Извршниот директор на OpenAI вели дека ChatGPT повторно достигна месечен раст од над 10%, објави CNBC ↗
Извршниот директор на OpenAI наводно изјавил дека ChatGPT се вратил на месечен раст од над 10% - што е голема работа ако претпоставиме дека фазата „сите веќе го пробаа“ го достигнала врвот.
Тоа сугерира дека или нови корисници сè уште се појавуваат, или постојните корисници наоѓаат повеќе причини да останат - или и двете. Во секој случај, производот се однесува помалку како тренд, а повеќе како инфраструктура... или барем така изгледа.
Најчесто поставувани прашања
Кој е предложениот „компактен“ центар за податоци со вештачка интелигенција што го промовираат САД?
Опишано е како збир на обврски на кои би се согласиле големите фирми кога градат или управуваат со големи центри за податоци со вештачка интелигенција. Намерата е да се стандардизираат очекувањата, така што овие масивни проекти за пресметување нема да станат расфрлани или неконзистентни меѓу компаниите. Иако спецификите сè уште звучат нејасно, акцентот се чини дека е на практична територија: потрошувачка на енергија, безбедност и евентуално некаков облик на известување.
Зошто САД би сакале компаниите да потпишат договор за центри за податоци со вештачка интелигенција?
Договорот може да воспостави заеднички основни очекувања без да ги принудува законодавците да изготвуваат ново правило за секој екстремен случај. Со брзото ширење на центрите за податоци со вештачка интелигенција, креаторите на политиките често се грижат за влијанието на мрежата, безбедносните ризици и оперативната транспарентност. Вообичаена стратегија е рано усогласување на најголемите играчи, за да се шират здравите практики побрзо и полесно да се следи одговорноста доколку се појават проблеми.
Какви видови обврски би можеле да бидат вклучени во договорот за центар за податоци со вештачка интелигенција?
Врз основа на она што е предложено, обврските би можеле да опфатат планирање на енергијата (како се снабдува и управува со енергијата), безбедносни мерки (физички и сајбер) и некоја форма на известување или откривање. Во многу цевководи, известувањето станува „лесен“ слој за спроведување што ги прави стандардите читливи и мерливи. Ако договорот е доброволен, тие обврски може да се формулираат како упатства што подоцна помагаат во обликувањето на регулативата.
Што е тужбата за алатката на Google за снимање филмови со вештачка интелигенција наречена „Flow“?
„Аутодеск“ го тужи „Гугл“ поради името „Флоу“, тврдејќи дека „Аутодеск“ веќе го користел „Флоу“ за софтвер за производство и управување со визуелни ефекти. Спорот е формулиран како конфликт помеѓу трговски марки и брендирање, заедно со тврдењето дека „Гугл“ претходно сугерираше дека нема да го комерцијализира името, но подоцна сепак продолжил да бара трговски марки. Овие случаи честопати се сведуваат на приоритет на брендот и веројатноста за забуна.
Што значи тоа дека вештачката интелигенција не била подобра од другите методи за медицински совет на пациентите?
Тоа сугерира дека „прашај бот“ не е автоматски поточно или побезбедно од постојните начини на кои пациентите бараат совет. Тоа може да биде смирувачко ако сте загрижени за претерано самоуверени одговори од проверувачи на симптоми или чет-ботови. Не ја исклучува потенцијалната вредност на вештачката интелигенција во здравствената заштита, но ја нагласува потребата од докази, надзор и внимателна интеграција таму каде што грешките можат да предизвикаат штета.
Зошто лекарите се загрижени за здравствените апликации и чет-ботовите управувани од вештачка интелигенција?
Лекарите се грижат за сигурноста, штетата што им се нанесува на пациентите и кој е одговорен кога алатката дава сигурни, но неточни совети. Загриженоста не е само точноста; туку и како пациентите ги толкуваат резултатите и дали системот ги поттикнува луѓето кон небезбедно самоменаџирање. Во клинички услови, нејасната одговорност може да стане голем ризик: пациентите може да ѝ веруваат на алатката, клиницистите може да не ја контролираат, а упатствата може да заостанат во усвојувањето.