🏫 Во некои училишта, четботовите ги испрашуваат учениците за нивната работа. Но, револуцијата во вештачката интелигенција ги загрижи наставниците ↗
Некои австралиски училишта испробуваат поостар пресврт на „покажи што си работел/а“ - учениците завршуваат задача, а потоа вештачки чет-бот ги прашува во размена за да провери дали разбрале што поднеле. Всушност, тоа е усна комуникација, но со машина која прашува „што мислиш со тоа?“ сè додека не почнеш да се грчиш.
Поголемата загриженост е нееднаквото воведување: еден индустриски труд предупредува дека брзите усвојувачи би можеле да напредуваат, додека другите заостануваат, создавајќи двостепен образовен систем. Наставниците, исто така, постојано ги истакнуваат познатите - и сè уште сериозни - загрижености: приватноста, благосостојбата и како да се спречи „помош од вештачката интелигенција“ да се претвори во „вештачката интелигенција го направи тоа“.
👮 Метрополитенската полиција користи алатки за вештачка интелигенција обезбедени од Палантир за да пријави несоодветно однесување на полицајците ↗
Лондонскиот Метрополитен институт користи вештачка интелигенција обезбедена од Палантир за да анализира внатрешни модели на работна сила - боледувања, отсуства, прекувремена работа - барајќи сигнали што би можеле да се поврзат со проблеми со професионалните стандарди. Претставен е како временски ограничен пилот-проект и, клучно, Метрополитен институтот вели дека луѓето сè уште ги донесуваат вистинските одлуки... но тоа „сè уште“ врши многу работа.
Полициската федерација не е воодушевена, нарекувајќи го тоа „автоматизирано сомневање“ и предупредувајќи за непроѕирните алатки што погрешно го толкуваат стресот и работното оптоварување како прекршок. Тоа е еден од оние моменти кога технологијата звучи уредно на слајд, а потоа замислувате како се чувствува на земја и тој остро се отежнува.
🛡️ Британскиот надзорник за приватност предупредува во заедничка изјава за сликите генерирани од вештачка интелигенција ↗
Британскиот ICO им се придружи на другите регулатори во заедничко предупредување за слики генерирани од вештачка интелигенција кои прикажуваат препознатливи луѓе без согласност - во основа: не го третирајте „синтетичкото“ како магичен изговор. Пораката е рано да се изградат заштитни мерки и да се ангажираат регулаторите, наместо да се прави класичниот технолошки потег прво да се испрати, а потоа да се извинува.
Тие, исто така, ги истакнуваат зголемените ризици за децата, што има смисла, бидејќи откако ова ќе се прошири, тоа е како да се обидувате да вратите светки во тегла. Целта е дека приватноста и достоинството се наменети за преживување на модниот циклус, барем така изгледа.
🪖 Американскиот министер за одбрана Хегсет го повика извршниот директор на „Антропик“ на тешки разговори за воената употреба на „Клод“, објави „Аксиос“ ↗
Ројтерс објави дека американскиот министер за одбрана треба да се сретне со извршниот директор на „Антропик“ за она што се опишува како поконфронтациски разговор за воената употреба на „Клод“. Пентагон наводно сака големите добавувачи на вештачка интелигенција да ги направат моделите достапни на класифицирани мрежи со помалку ограничувања - а „Антропик“ се спротивставува на какво било олабавување на заштитните мерки.
Подтекстот се чита како класична дилема „движете се брзо, но... со вклучени ракети“. Доколку страните не можат да се договорат за заштитните огради, односот би можел да се затегне, па дури и да се прекине - сепак, Антропик исто така сигнализира дека разговорите со владата остануваат конструктивни, па затоа се работи за напнати, но не и за целосни текстови за раскинување (сè уште).
🧠 ChatGPT - Белешки за изданието ↗
Белешките за изданието на OpenAI укажуваат на проширен контекстуален прозорец за режимот „Размислување“ - што значи дека можете да внесете повеќе текст во моделот и да ги одржувате подолгите нишки кохерентни без да се испуштаат претходни детали. Ако некогаш сте виделе модел да „заборава“ нешто што буквално штотуку сте го кажале (болка), ова е насочено токму кон тоа.
Тоа е многу штреберско надградување кое тивко го менува она што е практично: подолга документација, позаплеткани проекти, пораширени истражувачки сесии. Не е гламурозно, но тоа е вид на промена на водоводот што одеднаш ја прави целата куќа да изгледа поголема.
Најчесто поставувани прашања
Што значи кога училиштата користат четботови за да ги „испитуваат“ учениците за задачите?
Во некои австралиски училишта, учениците завршуваат задача, а потоа минуваат низ размена со вештачки чет-бот кој го испитува нивното расудување. Работи како усна комуникација, притискајќи ги учениците да објаснат што напишале и зошто. Целта е да се потврди разбирањето, а не само резултатот. Исто така, може да открие празнини кога ученикот не може да ги брани клучните тврдења.
Како би можеле вештачките чет-ботови во училиштата да создадат „двостепен“ образовен систем?
Еден индустриски труд предупредува дека училиштата што брзо ги прифаќаат новите технологии би можеле да напредуваат, додека училиштата што се движат побавно би заостанувале уште повеќе. Доколку некои училишта распоредат алатки за вештачка интелигенција за да го проценат разбирањето, да го поддржат учењето или да спречат злоупотреба, тие би можеле да ги подобрат резултатите порано. Други може да немаат буџет, капацитет на персоналот или јасност на политиките за да воведат споредливи системи. Тоа нееднакво прифаќање може да ги зголеми постојните јазови во ресурсите и постигнувањата.
Како наставниците се обидуваат да спречат „помош од вештачка интелигенција“ да се претвори во „вештачката интелигенција го направи тоа“?
Вообичаен пристап е проценката да се префрли кон процес и објаснување, а не само кон готовиот производ. Прашувањето во стилот на чатбот, нацртите, рефлексиите или усните проверки можат да го отежнат поднесувањето на работа што не ја разбирате. Наставниците исто така можат да постават построги граници за прифатлива помош, како што е размена на идеи наспроти целосно препишување. Акцентот останува на демонстрирање разбирање, а не на контролирање на секоја алатка.
Кои проблеми со приватноста и благосостојбата се појавуваат кога вештачката интелигенција се користи во училниците?
Наставниците постојано изразуваат загриженост за тоа кои податоци од учениците се собираат, каде се складираат и кој може да пристапи до нив. Исто така, постојат загрижености за нивната благосостојба ако учениците се чувствуваат постојано следени или под притисок од машински испрашувања. Децата се посебна ризична група, бидејќи чувствителните информации можат да се шират или да опстојуваат во системите на неочекувани начини. Многу училишта имаат за цел да воспостават заштитни мерки рано, наместо да се обидуваат да ги модернизираат подоцна.
Како Метрополитен полицијата ја користи вештачката интелигенција обезбедена од Палантир за да пријави потенцијално лошо постапување од страна на службениците?
Лондонскиот Метрополитен институт користи вештачка интелигенција обезбедена од Палантир за да анализира модели на работна сила, како што се болести, отсуства и прекувремени часови. Целта е да се забележат сигнали што би можеле да се поврзат со проблеми со професионалните стандарди. Опишан е како временски ограничен пилот-проект, а Метрополитен институтот вели дека луѓето сè уште ги донесуваат одлуките. Критичарите тврдат дека алатката може да се чувствува како „автоматизирано сомневање“ ако го толкува стресот како прекршок.
Зошто полициските синдикати се загрижени за „автоматизирано сомневање“ од алатките за надзор на вештачката интелигенција?
Загриженоста на Полициската федерација е дека непроѕирните модели може да заклучат несоодветно однесување од шеми кои имаат бенигни објаснувања. Зголемувањето на работното оптоварување, здравствените проблеми и стресот можат да го променат присуството или прекувременото работење без да имплицираат прекршок. Ако логиката на алатката не е транспарентна, на полицајците им станува потешко да ги оспоруваат знамињата или на менаџерите да ги калибрираат фер праговите. Дури и со човечки одлуки, автоматизираните сигнали сè уште можат да ги обликуваат резултатите.
За што предупредува ICO на Велика Британија во врска со слики генерирани од вештачка интелигенција од препознатливи лица?
Британскиот надзорник за приватност се придружи на другите регулатори во предупредувањето дека „синтетички“ не значи без последици. Ако сликата генерирана од вештачка интелигенција прикажува лице кое може да се идентификува без согласност, ризиците за приватноста и достоинството сè уште постојат. Регулаторите нагласуваат дека е потребно рано градење заштитни мерки и ангажирање со надзор, наместо прво да се испрати. Тие, исто така, ги истакнуваат зголемените ризици за децата, каде што штетата може брзо да се зголеми откако содржината ќе се прошири.
Што стои зад наводниот притисок на Пентагон врз Антропик за воена употреба на Клод?
Ројтерс објави дека американскиот министер за одбрана треба да се сретне со извршниот директор на Антропик за потешки разговори за воената употреба на Клод. Пентагон наводно сака големите добавувачи на вештачка интелигенција да ги направат моделите достапни на класифицираните мрежи со помалку ограничувања. Антропик се спротивставува на полабавите заштитни мерки, посочувајќи на судир околу заштитните огради. Односот звучи напнато, иако двете страни сигнализираат дека разговорите остануваат конструктивни.
Што се промени во белешките за изданието на ChatGPT во врска со должината на контекстот на режимот „Размислување“?
Белешките за објавување на OpenAI укажуваат на проширен контекстуален прозорец за режимот „Размислување“, што овозможува повеќе текст да се смести во една нишка. Во пракса, тоа може да помогне со долги документи, сложени проекти и истражување во повеќе чекори каде што се важни претходните детали. Станува збор за надградба во водоводен стил, а не за впечатлива функција. Главната придобивка е помалку заборавени детали во текот на подолгите сесии.