Повече от 120 часа годишно: Това е колко биха могли да спестят работниците , като използват AI, но мнозина се страхуват да го направят, според проучване на Google
Публикувани са резултатите от пилотния проект
Проучване на Google установи, че работниците могат да спестят повече от 120 часа годишно, като използват изкуствен интелект (AI) в административни задачи. Компанията каза, че Обединеното кралство може да отключи £400 милиарда ($533 милиарда) в растеж, управляван от AI, ако обучи работната си сила.
Прости стъпки като даване на разрешение на работниците да използват AI и няколко часа обучение, за да започнат, биха могли да удвоят приемането на новата технология и на свой ред да стимулират икономическия растеж, според проучване на Google.
Американският технологичен гигант зад чатбота Gemini AI заяви, че две трети от работниците, особено по-възрастните жени от по-нисък социално-икономически произход, никога не са използвали генеративен AI на работа, според анализ на Public First, негов партньор в програмата. Деби Уайнстийн, президент на Google за Европа, Близкия изток и Африка, каза, че пилотните проекти на AI Works в малки бизнес мрежи, образователни институции и синдикат са показали, че работниците могат да спестят средно 122 часа годишно, като използват AI за административни задачи.
Въпреки това, една от бариерите, които попречиха на някои да започнат да използват AI, бяха опасенията дали могат да използват тези инструменти в работата си.
„Хората искаха „разрешение за бакшиш“, каза Уайнщайн в интервю. — „Мога ли да направя това?“ И затова беше наистина важно да им дадем тази увереност."
След като започнаха да използват технологията, каза тя, няколко часа обучение с помощта на AI доведоха до използването на функцията два пъти по-често и те все още я използваха месеци по-късно.
Например, преди проучването само 17% от жените над 55 години са използвали AI седмично и само 9% ежедневно. Три месеца по-късно 56% са го използвали всяка седмица, а 29% са го превърнали в ежедневен навик.
https://www.reuters.com/business/wor...le-2025-04-24/
AI издържа теста на лекарите: Нов подход към структурирането на знанията подобрява точността на диагнозата
Учените подчертават: целта не е да се заменят лекарите, а да се намалят диагностичните грешки
Изследователи от университета в Бъфало направиха пробив в медицинския изкуствен интелект: техният метод за семантичен клиничен изкуствен интелект (SCAI) позволи на езиковите модели значително да подобрят представянето си на изпита USMLE, американския медицински лицензионен тест. Ключов компонент на технологията, RAG двигателят, обогатява модела със структурирани клинични данни, което е особено полезно за компактните версии на AI. Например, моделът с 13 милиарда параметъра успя да премине прага за преминаване на USMLE стъпка 3 само след интегриране на SCAI, докато по-мощните версии (70 и 405 милиарда параметри) постигнаха точност над 90% на отделни стъпки. Това откритие определя посоката за разработване на инструменти, които могат да работят в партньорство с лекарите.
Принципът на SCAI е подобен на създаването на дигитален медицински справочник. Алгоритъмът анализира образователни материали, клинични указания и бази данни (като MedlinePlus и DrugBank), като идентифицира връзките между симптоми, тестове и диагнози под формата на триплети обект-връзка-субект. Тези структурирани данни се преобразуват в числени модели, които моделът използва, за да предостави контекст, когато отговаря на въпрос. Например, когато бъде попитан за пациент с кашлица и температура, системата автоматично включва информация за типичните патогени, които причиняват пневмония, или препоръчва изключване на COVID-19. Този подход намалява риска от „халюцинации” – генериране на непроверени факти.
Ефективността на метода се потвърждава от конкретни случаи. Един въпрос на USMLE описва 24-годишна пациентка с често уриниране поради авиофобия. Основният модел Llama 13B без SCAI предложи успокоение, но след добавяне на структурирани данни (връзката между употребата на орални контрацептиви и аменореята, ролята на анализа на урината при диагностицирането на кристалурия), AI препоръча поведенческа терапия - правилният отговор, съответстващ на индуцираната от стрес дисфункция на пикочния мехур.
Основното предимство на SCAI RAG е възможността за „преквалифициране“ на модели без пълното им възстановяване. Това е критично за медицината, където данните непрекъснато се променят. Например, когато се появят нови клинични насоки за лечение на диабет, системата може бързо да ги интегрира в своята база данни, без да изисква месеци на преквалификация. Нещо повече, нивото на грешни отговори за най-големия модел (405B) със SCAI е само 4,9% на етап Стъпка 3, в сравнение с типичните 10-15% за основните AI.
Авторите подчертават, че целта на технологията не е да замени лекарите, а да създаде инструменти за намаляване на диагностичните грешки и ускоряване на вземането на решения. SCAI вече може да се използва в образованието днес, например за симулиране на сложни клинични случаи при преподаване на студенти. В бъдеще такива системи могат да станат част от електронните медицински досиета, като анализират историята на пациента и предлагат на лекаря актуални препоръки.
Прилагането на такива решения обаче ще изисква внимателно валидиране. Следващата стъпка за учените е тестването на SCAI в реална клинична практика, където е важно не само качеството на отговорите, но и скоростта на работа, интеграцията с медицинско оборудване и етичните аспекти.
https://jamanetwork.com/journals/jam...rticle/2833129
AI се научава да вижда като мозъка: Пробив в машинното зрение
Може да подобри самоуправляващите се автомобили и медицинската диагностика
Учени от Южна Корея и Германия са разработили нов метод за изкуствен интелект (AI), който прави машинното зрение по-близо до човешкото. Технологията, наречена Lp-Convolution, позволява на AI да обработва изображения по-ефективно, подобно на това, което прави зрителната кора на мозъка. Резултатът е подобрена точност на разпознаване, намалени изчислителни разходи и нови перспективи за области, вариращи от автомобили без водач до медицинска диагностика.
Традиционните AI системи като конволюционните невронни мрежи (CNN) използват фиксирани филтри за анализ на изображения. Това ограничава способността им да възприемат сложни детайли. Други модели, Vision Transformers, макар и мощни, изискват огромно количество изчислителна мощност. Lp-Convolution се занимава с тези проблеми, като се вдъхновява от работата на зрителния кортекс на мозъка. Вместо твърди филтри, новият метод използва гъвкави филтри, които се адаптират към формата на обект, подобно на това как невроните в мозъка се фокусират върху ключови детайли.
Тестването на Lp-Convolution върху наборите от данни CIFAR-100 и TinyImageNet показа подобрения в точността както на класическите, така и на най-съвременните CNN модели. Нещо повече, сравняването на моделите на обработка на AI с невронната активност в мозъците на мишки разкри поразителни прилики, потвърждавайки биологичната правдоподобност на новия метод. Lp-Convolution не само подобрява ефективността на CNN, но също така ги прави по-малко ресурсоемки, предлагайки алтернатива на по-сложните системи.
Това откритие може потенциално да доведе до по-ефективни и адаптивни алгоритми. Екипът от учени, направили откритието, планира да проучи потенциала на тази технология за решаване на сложни проблеми като решаване на пъзели и обработка на видео в реално време. В опит да доразвие и да си сътрудничи в тази област, екипът пусна кода и предварително обучените модели с отворен код в GitHub. Това ще позволи на други изследователи да експериментират с технологията и да допринесат за нейното развитие.
https://ibs.re.kr/cop/bbs/BBSMSTR_00...nd=&searchWrd=
Grok вече може да „вижда“ света около себе си: AI на Илон Мъск стана по-удобен и гъвкав
„Представяме ви Grok Vision, многоезично аудио и гласово търсене в реално време“
Компанията за изкуствен интелект на Илон Мъск xAI представи актуализация на своя чатбот Grok, който му позволява да „вижда“ света около себе си. Тази нова функция позволява на чатбота да обработва и интерпретира визуално въвеждане, което е друга важна стъпка във взаимодействието между изкуствения интелект и хората.
„Представяме Grok Vision, многоезично аудио и гласово търсене в реално време. Актуализацията вече е налична“, казаха от компанията.
Подобреният чатбот Grok използва усъвършенствана технология за компютърно зрение, за да анализира изображения и видеоклипове, като предоставя чувствителни към контекста отговори. Например, потребителите могат да качат снимка на продукт и Grok може да го идентифицира, да предложи употреби или дори да препоръча подобни продукти. Това прави Grok по-гъвкав и интуитивен.
С тази актуализация xAI се позиционира като силен конкурент в областта на AI, предизвиквайки утвърдени играчи като OpenAI и Google.
https://x.com/ebbyamir/status/1914820712092852430
Системата за изкуствен интелект на Alibaba получи одобрение от FDA за ранна диагностика на панкреаса
Системата Damo Panda анализира изображенията по-точно от лекарите
Китайският технологичен гигант Alibaba направи пробив в медицинския AI: неговата Damo Panda получи статут на „устройство за пробив“ от FDA. Решението ще спомогне за ускоряване на въвеждането на система, която може да открие рак на панкреаса в ранен стадий, заболяване, известно със своя латентен ход и висока смъртност.
Инструментът анализира медицински изображения с помощта на алгоритми, обучени да разпознават фините промени в тъканите, които често избягват вниманието на лекарите. Damo Panda идентифицира модели, които показват началото на заболяването, увеличавайки шансовете на пациентите да получат навременно лечение.
Резултатите от алгоритмите са публикувани в списанието Nature Medicine. В Китай системата вече е тествана върху 40 000 пациенти в болница в Нинбо, но подробности не са разкрити. Одобрението на FDA не само потвърждава ефективността на разработката, но и отваря пътя за използването й в САЩ. Damo Academy, изследователското звено на Alibaba, планира да си партнира с компании като Ankon Medical Technologies, за да мащабира технологията.
Това постижение засилва позицията на Китай в глобалната надпревара за AI технологии. Бившият главен изпълнителен директор на Alphabet Ерик Шмид по-рано предупреди, че инвестициите на Пекин в изкуствен интелект, включително проекти като DeepSeek, могат да дадат на страната лидерство в тази област. В същото време напрежението нараства около доставките на чипове, като китайски компании, включително Alibaba, Tencent и ByteDance, активно купуват чипове Nvidia H20 въпреки ограниченията за износ от САЩ. Успехът на Alibaba в областта на медицината се допълва от нарастващата популярност на неговото приложение Quark AI, което изпревари конкурента си ByteDance по отношение на броя на потребителите.
Акциите на Alibaba се повишиха леко след новината за одобрението на FDA, с 0,25% до 109,14 долара. Damo Panda потенциално може да се превърне в стандарт за ранно откриване на рак, намалявайки времето за диагностициране и подобрявайки прогнозата за пациентите.
https://www.benzinga.com/25/04/44895...through-status
https://www.scmp.com/tech/big-tech/a...proval-process
Светът никога не е виждал нещо подобно: ОАЕ ще бъдат първите в света, които ще използват AI, за да пишат закони
Това ще ускори приемането на законите.
Обединените арабски емирства (ОАЕ) ще станат първите в света, които ще използват изкуствен интелект (AI) за изготвяне на ново законодателство, както и за преглед и изменение на съществуващите.
Financial Times (FT), който съобщи новината, нарече плановете на ОАЕ „радикален опит да се използват технологии за милиарди долари“.
„Новата законодателна система, задвижвана от AI, ще промени начина, по който създаваме закони, като направи процеса по-бърз и по-точен“, каза министър-председателят Мохамед бин Рашид Ал Мактум.
Властите в страната планират AI, който "редовно ще предлага актуализации на законодателството", да ускори приемането на закони със 70%. В същото време AI ще помогне „да се проследи как законите влияят на населението и икономиката на страната“.
https://www.ft.com/content/9019cd51-...6-eafcf28609c3
ОАЕ стартира първия в света правен експеримент с ИИ
Страната стартира система, която анализира хиляди документи, за да пише наредби.
Обединените арабски емирства стартираха проект за интегриране на изкуствения интелект в законодателния процес, превръщайки се в първата страна, която използва алгоритми за генериране на проекторегулации. Според Financial Times системата за изкуствен интелект, представена от правителството, ще анализира съществуващото законодателство, международните стандарти, правителствените стратегии и общественото търсене, за да генерира първоначални версии на закони. Целта е да се ускори вземането на решения и да се подобри тяхната валидност чрез обработка на големи количества данни.
Основните предимства на системата, според поддръжниците, включват намаляване на времето, необходимо за разработване на закони чрез автоматизиране на събирането и първоначалната обработка на информация; обективност на решенията, базирани на данни, а не на лични предпочитания; алгоритми разкриват скрити модели, които хората могат да пропуснат; минимизиране на грешките, причинени от човешки фактори, като политически натиск или когнитивни пристрастия.
Експертите обаче посочват рискове, на които трябва да се обърне внимание. Сред тях е липсата на ясни механизми за отговорност за последиците от законите, създадени от AI. „Ако алгоритъмът направи грешка или възпроизведе отклоненията в данните, кой е отговорен?“ — пита Лана Ал Махри, специалист по дигитална етика в университета в Дубай. Друг проблем са ограниченията на AI в разбирането на социалните нюанси. Технологията все още не е в състояние да оцени напълно етичните дилеми или културните специфики, които са критични за законотворчеството.
Властите на ОАЕ подчертават, че AI няма да замени хората, а ще се превърне в помощно средство. Окончателните решения ще бъдат на законодателите, които също така ще следят за съответствието на проектите с националните ценности. Подробности за внедряването, като използваните алгоритми или етапите на внедряване, все още не се разкриват. Известно е само, че системата се тества в затворен режим.
https://slguardian.org/uae-to-pionee...oogle_vignette
OpenAI въвежда скрити водни знаци в ChatGPT за борба с плагиатството: Ефективността е под въпрос
Компанията Руми е открила скрити символи в текстовете на GPT-o3, но те могат да бъдат премахнати с няколко кликвания
OpenAI, компанията зад чатбота ChatGPT, добави невидими водни знаци към текстове, генерирани от новите модели GPT-o3 и GPT-4o-mini. Както установиха експерти от Rumi, това се прави, за да се идентифицира съдържание, генерирано от AI, но ефективността на метода е под въпрос.
Изследователите откриха, че при генериране на дълги текстове, като есета, моделите вграждат Unicode символа Narrow Space (U+202F). Визуално не се различава от обикновеното пространство, но се различава в ASCII кода. Такива знаци могат да бъдат забелязани само с помощта на специализирани инструменти: онлайн анализатори на символи, редактори на кодове (Sublime Text, VS Code) или текстови анализатори. Например, когато копирате есе, генерирано от GPT-o3, тези програми показват модел на NNBSP, който потвърждава произхода на текста.
OpenAI не е обявил иновацията публично. Въпреки това, след изтичане на информация през април за тестване на воден знак на изображение, Руми проведе свой собствен анализ. По време на проверката се оказа, че по-ранните версии, включително GPT-4o, не съдържат такива маркери.
Основното предимство на метода е почти нулевият шанс за фалшиви положителни резултати. Тъй като е малко вероятно студентите да използват умишлено U+202F в своите документи, откриването на такива знаци ясно показва заемане от ChatGPT. Основният недостатък обаче е крехкостта на защитата. След като потребителите знаят за водните знаци, те могат да бъдат премахнати за секунди с помощта на функцията „намиране и замяна“ във всеки редактор. Видео инструкции как да изчистите текст вече се появяват онлайн.
Ситуацията се влошава от факта, че ChatGPT е достъпен за студентите безплатно до края на май 2025 г. Това съвпада с периода за изпращане на курсови и дипломни работи. Неинформираните студенти, които копират текст, без да го проверяват, рискуват да бъдат обвинени в плагиатство. Тези, които познават водните знаци, печелят предимство, разширявайки пропастта между потребителите на AI и тези, които пишат свои собствени произведения.
От OpenAI все още не са коментирали ситуацията. Ако историята стане публична, компанията може да се откаже от водните знаци, точно както преди това изостави неточния AI детектор.
https://www.rumidocs.com/newsroom/ne...rmarks-on-text
ChatGPT вече може да дешифрира ръкописни бележки, да решава математически задачи и да идентифицира проблеми в екранни снимки на софтуерни грешки
пуснати модели o3 и o4-mini
Моделите o3 и o4-mini на OpenAI вече могат да анализират изображения като човек OpenAI представи два нови модела, o3 и o4-mini, които позволяват на ChatGPT да обработва и разбира изображения по начин, подобен на човешкото мислене.
Тези модели могат да интерпретират качени от потребители изображения като снимки, диаграми или екранни снимки и да предоставят подробен анализ. Например, ChatGPT вече може да чете ръкописни бележки, да решава визуални математически задачи или да идентифицира проблеми в екранна снимка на софтуерна грешка.
Моделите постигат това, като включват визуална информация в своя процес на разсъждение, което им позволява да манипулират изображения - като завъртане или мащабиране - за по-добро разбиране на съдържанието. Това ви позволява да предоставяте по-точни и пълни отговори, дори когато работите с несъвършени или сложни изображения.
Тези функции са достъпни за потребители на ChatGPT Plus, Pro и Team, като в близко бъдеще се планира повече достъп.
https://mspoweruser.com/openais-o3-a...-like-a-human/
ChatGPT се учи да идентифицира местоположения по снимка: Нови възможности и рискове за поверителността
OpenAI обещава да блокира заявки за лични данни, но тестовете разкриват уязвимости
Потребителите на социалните медии активно обсъждат тревожна тенденция: невронните мрежи OpenAI - модели o3 и o4-mini - започнаха да се използват за определяне на местоположението от снимки. След неотдавнашното обявяване на тези системи, които могат да анализират изображения чрез "разсъждение" (изрязване, завъртане, мащабиране), ентусиастите започнаха да ги тестват като географски детективи. Технология, предназначена да подобри достъпността на съдържанието и да подпомогне изследванията, се превърна в инструмент, който застрашава поверителността.
Има десетки примери в платформата X, където o3 успешно идентифицира градове, паметници и дори заведения от размазани снимки, менюта или фасади. Потребителите инструктират AI да "играе GeoGuessr" - игра за отгатване на местоположения чрез Google Street View. В същото време, според тестовете, моделите често игнорират EXIF данни (метаданни за мястото на снимане) и не разчитат на историята на диалозите, което прави техния анализ независим, но потенциално опасен.
Експериментът на TechCrunch даде смесени резултати. o3 и по-старият GPT-4o, на който липсваха функции за анализ на изображения, се справиха почти еднакво добре със задачите. Например, и двата модела правилно идентифицираха кадър от парка Йосемити въз основа на неговите характерни скали. В един тест обаче o3 надмина своя предшественик: когато му беше представена снимка на лилава глава на носорог в тъмен бар, той посочи заведение в Уилямсбърг, Ню Йорк, докато GPT-4o грешеше, предполагайки кръчма в Обединеното кралство.
Въпреки това, точността на o3 далеч не е идеална. В някои случаи моделът блокира или даде неправилни отговори. Например, тя свързва снимка на парижко кафене с квартал в Барселона и погрешно приписва снимка на типичен американски супермаркет на австралийски. Потребителите отбелязват, че изкуственият интелект често „се досеща“ въз основа на незначителни детайли като растителност или архитектурни стилове.
Основният проблем е липсата на ясни бариери срещу насилието. Нападателят може да качи екранна снимка от нечия история в Instagram* в ChatGPT и системата ще се опита да определи местоположението, дори ако снимката няма геотагове. Това създава рискове от деанонимизация.
OpenAI заяви, че е въвел предпазни мерки: моделите са обучени да отхвърлят искания за идентифициране на лица и анализ на чувствителни данни. „Ние активно следим за злоупотреби и актуализираме нашите политики за използване“, каза говорител на компанията. На практика обаче филтрите работят избирателно. Например, изкуственият интелект с удоволствие помага при намирането на ресторант по интериора му, но отказва да разпознае лица на същите снимки.
Новите функции на ChatGPT със сигурност са полезни при извънредни ситуации или за изследване на местната история. Въпреки това, лекотата на използването им за геотърсене изисква преразглеждане на стандартите за цифрова сигурност. Докато общността споделя лайфхакове за това как да скриете метаданни или да изкривите снимки преди публикуване, OpenAI мълчи относно плановете за укрепване на сигурността.
https://techcrunch.com/2025/04/17/th...h-from-photos/
Физика, не фантазия: MIT Startup разкрива AI платформа за борба с промишлените отпадъци за $8 трилиона
Специализиран AI за инженери обещава да трансформира хаоса от чертежи и устни инструкции в ясни алгоритми - вече се тества в корпорациите Fortune 500
Основаната от MIT стартираща фондация EGI обяви стартирането на платформа за изкуствен интелект, която според нея може да намали глобалните промишлени отпадъци с 8 трилиона долара. Engineering General Intelligence (EGI) има за цел да автоматизира управлението на жизнения цикъл на продуктите – от дизайна до пускането – в отрасли, все още доминирани от ръчни процеси и фрагментирани данни.
Платформата, която вече е тествана от няколко компании от Fortune 500, е базирана на езиков модел, адаптиран за инженерни задачи. За разлика от аналози с общо предназначение като ChatGPT, EGI анализира неструктурирани технически спецификации, чертежи с бележки „на коляно“ и дори устни инструкции, превръщайки ги в точни алгоритми за производствени системи. „Типичните LLM правят грешки във физическите изчисления или не разбират контекста“, обясни изпълнителният директор на Foundation EGI Мок О. „Нашият модел е обучен на инженерни данни и знае как да начертае границата между креативно предложение и технически невъзможна идея.“
Технологията на стартъпа е събрала 7,6 милиона долара първоначално финансиране от E14 Fund, Union Lab Ventures, Samsung Next и Henry Ford III. Част от средствата отиват към пилотни проекти, включително партньорство с автомобилния производител Inteva Products. „Преди това инженерите прекарваха 30% от времето си в търсене на актуални версии на чертежи“, каза ИТ директорът на компанията Денис Ходжис. „EGI автоматизира документооборота и идентифицира 12% от излишните операции във веригата за доставки.“
Академичната основа за проекта беше изследване от лабораторията на професора на MIT Wojciech Matusik, публикувано през март 2024 г. Ученият доказа, че AI моделите, адаптирани за инженерство, са 40% по-точни при прогнозиране на натоварванията в CAD проекти и 65% по-ефективни при предлагането на алтернативни материали, когато компонентите са в недостиг. „EGI е преводач между езика на инженерите и езика на машините“, каза Матусик на скорошен разговор в MIT. „Платформата не замества хората, но ни позволява да работим върху идеи за една седмица, което преди отнемаше месеци.“
Системата се интегрира с популярни CAD програми (напр. SolidWorks), PLM системи (включително Siemens Teamcenter) и MES платформи, което опростява внедряването без преструктуриране на работния цикъл. Облачна услуга с поетапни плащания е достъпна за по-малките фирми, но основният фокус е върху по-големите производители с дългогодишно „наследство“ от различни бази данни и остарели спецификации. Фондация EGI твърди, че техният модел се обучава върху документацията на всеки клиент и е внедрен модул за валидиране с участието на инженерни куратори за персонализиране.
До края на 2025 г. стартъпът планира да свърже 100 компании към платформата като част от бета тестване, а до 2027 г. да достигне нивото на обработка на 20% от глобалните индустриални данни. Ако амбициите на основателите се реализират, това може да бъде повратна точка за една индустрия, в която 73% от фирмите все още разчитат на електронни таблици и хартиени дневници на Excel.
https://roboticsandautomationnews.co...ocesses/89853/
https://www.foundationegi.com/
98,7% от опасните заявки са блокирани: OpenAI укрепва защитата на AI моделите срещу биозаплахи с автоматизирано наблюдение
Но дори мощните алгоритми не могат да заменят хората
OpenAI обяви нова функция за сигурност за своите модели o3 и o4-mini, насочена към предотвратяване на използването им за създаване на биологични и химически заплахи. Разработеният монитор анализира потребителските заявки в реално време и блокира тези, свързани с рискови сценарии, като разработването на биологични оръжия.
Според вътрешен доклад на OpenAI, системата е базирана на алгоритъм, който следи „разсъжденията“ на моделите, за да идентифицира нарушенията на правилата за съдържание. Като част от тестването, специален екип за тестване на уязвимости (така нареченият „червен екип“) прекара над 1000 часа в симулиране на опасни диалози. В 98,7% от случаите o3 и o4-mini отказаха да предоставят информация, свързана с биологични опасности. Компанията обаче признава, че тестовете не са взели предвид ситуации, при които потребителите преформулират забранени заявки, след като са били блокирани. Следователно, известна отговорност все още се носи от човешкия контрол.
Новите модели, особено o3, показват подобрена производителност при отговаряне на сложни технически въпроси, което според OpenAI увеличава потенциалните рискове. Въпреки че настоящите версии не достигат „прага на висок риск“, техните възможности превъзхождат предишните разработки, включително GPT-4. За да минимизира заплахите, компанията е интегрирала подобна система за наблюдение в генератора на изображения GPT-4o, който вече автоматично блокира опитите за създаване на изображения на забранени теми (CSAM).
Критиците, включително тестващият партньор Metr, посочват недостатъци в подхода на OpenAI. Например, за модела o3 беше отделено малко време за тестване на устойчивостта на измамни тактики. Освен това стартирането на GPT-4.1 миналата седмица дойде без публикуван доклад за сигурността, което повдига въпроси относно прозрачността на компанията.
OpenAI продължава да усъвършенства рамката за готовност с акцент върху химическите и биологичните заплахи. Въпреки напредъка в автоматизацията, балансът между иновация и безопасност остава предизвикателство. Успехът на новите мерки зависи до голяма степен от способността на системите да се адаптират към еволюцията на методите на атакуващите, както и от сътрудничеството на разработчиците с независими изследователи.
https://techcrunch.com/2025/04/16/op...vent-biorisks/
https://www.bloomberg.com/news/artic...enge-to-google
Grok ще може да отчита пред данъчната служба вместо вас. Chatbot печели топ класации в приложенията за финанси, право и данъци
Разработчиците говориха за това
Моделът Grok 3 Beta на xAI показа отлични резултати в специализирани тестове за финансов, правен и данъчен анализ. Според Vals AI, Grok 3 Beta е поела лидерството в собствените бенчмаркове, побеждавайки предишните фаворити.
Беше тествана и олекотена версия, Grok 3 Mini Fast Beta, насочена към задачи с ниско ниво на сложност на разсъжденията. Въпреки по-малкия обем на модела, той също показа отлични резултати.
Според разработчиците от xAI подобен напредък в областта на езиковите модели може да позволи автоматизирането, например, на изготвянето на данъчни отчети до следващия сезон.
В xAI мислим за реалната стойност на Grok. Ние виждаме Grok 3 като най-добрия финансов и правен AI. До следващия данъчен сезон той може дори да подаде вашите данъци вместо вас.
https://x.com/belce_dogru/status/1912965361324216680
Чатботовете стават все по-добри в разпознаването на хора: Grok на Илон Мъск вече помни всичките ви разговори
Но паметта му може да бъде избирателно изтрита.
Grok, изкуственият интелект, разработен от xAI на Илон Мъск, получи нова функция: вече може да помни предишни разговори с потребители.
Актуализация, стартирана тази седмица, позволява на системата да съхранява контекста на разговорите, което прави нейните отговори по-точни и полезни.
Grok вече помни вашите разговори. Когато поискате препоръки или съвети, ще получите персонализирани отговори.
Актуализацията вече е достъпна за потребителите на Grok на grok.com, x.com и в мобилните приложения за iOS и Android.
Освен това можете да видите точно какво знае Grok и да изберете какво да забравите. За да забравите спомените, просто докоснете иконата под съобщението (тази функция все още не е налична за Android).
„Grok вече може да генерира документи, код, отчети и браузър игри.“ Grok Studio е стартирано, добавена е поддръжка на Google Drive
Функционалността се разширява
Чатботовете стават все по-добри в разпознаването на хора: Grok на Илон Мъск вече помни всичките ви разговори
Grok, чатботът от компанията за изкуствен интелект на Илон Мъск xAI, получи функция, подобна на платно, за редактиране и създаване на документи и основни приложения. Функцията, наречена Grok Studio, беше представена на 15 април. Тя е достъпна както за безплатни, така и за платени потребители.
„Grok вече може да генерира документи, код, отчети и браузър игри“, пише в официалния X акаунт на Grok. „Grok Studio ще отвори вашето съдържание в отделен прозорец, позволявайки на вас и Grok да си сътрудничите по съдържанието.“
Grok не е първият, който получава специално работно пространство за работа със софтуер и писане на проекти. OpenAI стартира подобна възможност, Canvas, за ChatGPT през октомври. Anthropic беше един от първите, които дебютираха с Artifacts за Claude.
Grok Studio ви позволява да преглеждате HTML фрагменти и да изпълнявате код като Python, C++ и JavaScript. Цялото съдържание се отваря в прозорец вдясно от отговорите на Grok.
Освен това Grok Studio става потенциално по-полезен благодарение на интеграцията си с Google Drive. Вече можете да прикачвате файлове от вашия акаунт в Google Drive към покана на Grok. Според xAI Grok може да работи с документи, електронни таблици и слайдове.
По-рано беше съобщено, че моделът Grok-3 Mini, разработен от xAI, успешно премина един от най-трудните тестове за логическо мислене . Изкуственият интелект се справи перфектно с всички задачи, въпреки че много модели срещат трудности при подобни тестове.
https://techcrunch.com/2025/04/15/gr...docs-and-apps/
https://x.com/grok/status/1912318583532872166
Клъстер от 30 000 следващо поколение P800 Kunlun чипове за тренировъчни модели като DeepSeek, както и собствен Ernie 4.5 Turbo. Baidu направи няколко големи съобщения
Китайските банки и интернет компании вече преминаха към чипове P800.
Клъстер от 30 000 чипа P800 Kunlun от трето поколение, които могат да поддържат тренировъчни модели като DeepSeek, беше разкрит от Baidu. Изпълнителният директор Робин Ли направи съобщението на годишната конференция за разработчици на компанията, където китайският гигант за търсене предостави актуална информация за своите усилия за изкуствен интелект (AI).
Клъстерът P800 може да поддържа обучение на модели от типа DeepSeek със стотици милиарди параметри или едновременна фина настройка на модели от хиляди клиенти с милиарди параметри, каза той. Китайските банки и интернет компании са преминали към чипове P800, според Baidu.
Робин Ли също представи най-новия AI модел на Baidu, Ernie 4.5 Turbo, като каза, че отговаря на най-доброто в индустрията в няколко теста за производителност, демонстрирайки възможности от кодиране до езиково разбиране. Компанията също пусна нов модел на разсъждение, наречен Ernie X1 Turbo, и каза, че ще използва възможностите си за изкуствен интелект в приложения от своя облачен диск и платформа за съдържание Baidu Wenku.
"Има много (AI) модели, но приложенията управляват света. "Приложението е крал", каза Лий. "Без приложения моделите и чиповете са безполезни."
Baidu беше сред първите големи китайски компании, които инвестираха сериозно в AI след дебюта на ChatGPT на OpenAI през 2022 г. Но нейният Ernie Bot се бори да спечели сцепление в лицето на силната конкуренция.
https://www.reuters.com/world/china/...ls-2025-04-25/
ChatGPT отива отвъд текста: Новите модели на OpenAI могат да интерпретират изображения
Съобщението идва като изненада след февруарските съобщения на OpenAI и идва преди предстоящото пускане на GPT-5
OpenAI има с какво да изненада своите потребители: само два дни след обявяването на GPT-4.1, технологичният гигант представи два нови модела наведнъж - o3 и o4-mini. От днес абонатите на ChatGPT Plus могат да изпробват и двете нови функции, за които OpenAI казва, че „въвеждат нова ера на AI възможности, като позволяват мислене чрез изображения“.
Моделът o3 се позиционира като най-модерната разработка на OpenAI до момента в областта на разсъжденията. Разработчиците особено подчертават нейните „изключителни постижения“ в задачи, свързани с кодиране, математика и наука. От своя страна o4-mini действа като по-икономична алтернатива, която обаче не отстъпва по отношение на ефективността при решаване на проблеми в същите области.
Въпреки това, най-забележителната характеристика на o3 и o4-mini е способността им да използват и комбинират всички инструменти, налични в ChatGPT, включително генериране на изображения. За първи път моделите на OpenAI могат не само да виждат изображения, но и да ги интерпретират и „мислят“ за тях, като значително разширяват хоризонтите на обработката на визуална информация. Потребителите могат да качват изображения – независимо дали са нискокачествени снимки на бели дъски, диаграми или скици – а новите модели могат да разберат съдържанието им и дори да ги адаптират, както решат. Това отваря пътя за решаване на сложни, многоетапни проблеми и, според OpenAI, ни доближава до създаването на наистина автономни системи.
„Комбинацията от усъвършенствани възможности за разсъждение с пълен достъп до инструменти води до значителни подобрения в производителността при академични показатели и проблеми от реалния свят, поставяйки нов стандарт както в интелигентността, така и в практическата полезност“, каза OpenAI.
В допълнение към новите модели, OpenAI също обяви Codex CLI, нов агент за писане на код, подобен на Claude Code. Първоначално инструментът поддържа o3 и o4-mini и скоро ще поддържа GPT-4.1.
Настоящото съобщение дойде като изненада след съобщението на Сам Алтман през февруари, че компанията променя курса си. По това време Алтман каза, че o3, който беше представен в края на миналата година, няма да бъде пуснат като самостоятелен продукт. В началото на април обаче плановете се промениха и Алтман обяви пускането на o3 и o4-mini. В своя X акаунт той обясни „промяната на плановете“ с желанието да направи GPT-5 „много по-добър от първоначално предвиденото“, както и трудностите при „интегрирането на всичко гладко“ и осигуряването на достатъчен капацитет за „безпрецедентно търсене“. Така че опростяването, което Altman обеща през февруари, вероятно ще бъде отложено до пускането на GPT-5, което според него се очаква през „следващите няколко месеца“.
Междувременно потребителите на ChatGPT Plus, Pro и Team могат да започнат с o3 и o4-mini днес. През следващите седмици OpenAI също така планира да пусне o3-pro, още по-мощна версия на своя водещ модел за разсъждение, който ще бъде достъпен за абонатите на Pro.
https://www.engadget.com/ai/openais-...170043465.html
Готов ли е OpenAI да коригира правилата за безопасност в името на конкуренцията? Актуализираната система за готовност позволява корекции, ако конкурентите поемат рискове
Критиците виждат това като надпревара за печалба за сметка на безопасността.
OpenAI актуализира своята рамка за готовност, вътрешен механизъм, използван за оценка на безопасността на AI моделите в процес на разработка и определяне какви предпазни мерки да се вземат по време на фазите на създаване и внедряване. В актуализираната версия компанията каза, че може да „коригира“ собствените си изисквания за безопасност, ако конкурентна лаборатория пусне на пазара система с „висок риск“ без подобни предпазни мерки.
OpenAI преди това беше критикуван за предполагаемо понижаване на стандартите за сигурност, за да ускори изданията и за забавяне на публикуването на доклади за тестване на сигурността. Трябва да се отбележи, че миналата седмица 12 бивши служители на OpenAI подадоха документ като част от делото на Илон Мъск срещу компанията, твърдейки, че планирано корпоративно преструктуриране може да стимулира компанията да намали още повече разходите за мерки за сигурност.
Преди потенциални критики OpenAI казва, че няма да приеме с лека ръка подобни корекции на политиката и ще се стреми да поддържа „по-високи нива на защита“. „Ако друг водещ разработчик на AI пусне високорискова система без сравними предпазни мерки, ние може да коригираме нашите изисквания“, каза OpenAI в публикация в блог. „Въпреки това, преди да предприемем такава стъпка, ние внимателно ще се уверим, че рисковият пейзаж наистина се е променил, публично ще признаем, че правим корекция, ще преценим, че корекцията няма да доведе до съществено увеличение на общия риск от сериозни щети и ще поддържаме по-високо ниво на защита.“
Компанията казва, че въпреки че не изоставя изцяло воденото от хора тестване, тя е създала „нарастващ набор от автоматизирани оценки“, за които се предполага, че са в състояние „да се справят с по-бързото темпо на изданията“. Според някои данни обаче ситуацията изглежда малко по-различна. Например, Financial Times съобщава, че OpenAI е дал на тестерите по-малко от седмица, за да тестват сигурността на основен модел, който се подготвя за пускане - изключително кратък период в сравнение с предишни версии. Източниците на изданието също твърдят, че много от тестовете за безопасност на OpenAI сега се провеждат върху по-ранни версии на модели, а не върху версиите, пуснати за широката публика. В изявленията си OpenAI отрича твърденията, че компрометира сигурността.
Сред другите промени в „Рамката за готовност“ на OpenAI, които останаха извън публичния радар, е премахването на задължителните тестове за безопасност за фино настроени модели, както е отбелязано в публикация на Стивън Адлер в X (бивш Twitter). Други промени в системата включват категоризиране на модели по ниво на риск, включително модели, които могат да скрият своите възможности, да заобиколят мерките за сигурност, да предотвратят изключване и дори да се самовъзпроизвеждат. OpenAI казва, че сега ще се фокусира върху това дали моделите достигат един от двата прага: „висока“ или „критична“ способност.
Според дефиницията на OpenAI, „високата“ способност е способността на модела да „разшири съществуващите пътища, за да причини сериозна вреда“. „Критична“ способност се отнася до модели, които „отварят безпрецедентни нови начини за причиняване на сериозна вреда“. „Системите, които постигат висока способност, трябва да разполагат с предпазни мерки, които в достатъчна степен минимизират свързания риск от сериозни щети, преди да бъдат разгърнати“, пише OpenAI в публикация в блог. Актуализациите на системата за готовност са първите от 2023 г.
https://techcrunch.com/2025/04/15/op...-high-risk-ai/
Сигурност в сянка: Google под обстрел заради липса на прозрачност в доклада за сигурността на Gemini 2.5 Pro
Експертите алармират: Липсата на данни от тестване на Gemini 2.5 Pro повдига въпроси относно безопасността на AI
Докладът за сигурността на Google за своя водещ модел Gemini 2.5 Pro AI, публикуван в четвъртък, предизвика скептицизъм от експерти, които обвиниха компанията, че е прекалено лаконична в документа. В доклад, публикуван седмици след пускането на модела, който претендира да покаже вътрешни оценки на безопасността, липсват ключови подробности, което според анализаторите поставя под въпрос способността за обективна оценка на рисковете, свързани с ИИ.
Техническите доклади са критичен инструмент за разбиране на възможностите и заплахите, породени от съвременните системи с ИИ. Подходът на Google към публикуването им обаче повдига въпроси. Компанията предоставя такива документи само след като моделите са напуснали „експерименталния“ етап и изключва от тях данни за тестване на „опасни способности“, оставяйки ги за затворен одит.
Експертите посочиха липсата на споменаване в доклада на Frontier Safety Framework (FSF), инструмент на Google, въведен през 2024 г. за идентифициране на способностите на AI, които биха могли да причинят „сериозна вреда“.
Питър Уайлдефорд, съосновател на Института за политика и стратегия за изкуствен интелект, нарече доклада „оскъден“: „Невъзможно е да се провери дали Google изпълнява публичните си ангажименти и следователно да се оцени безопасността на техните модели.“ Той също така обърна внимание на забавянето на публикуването: документът беше публикуван, след като Gemini 2.5 Pro стана достъпен за потребителите.
Томас Уудсайд от проекта Secure AI изрази надежда, че Google ще започне да публикува актуализации по-често, но посочи „пропуски“ в докладването: например моделът Gemini 2.5 Flash все още няма публикувани данни за сигурност. Говорител на Google каза, че доклад за Flash "очаква скоро", но експертите поставиха под съмнение систематичния подход на компанията.
Ситуацията се влошава от факта, че Google, който по-рано обеща на регулаторите „публична прозрачност“ за всички значими AI модели, сега се появява в списъка на критиците заедно с Meta* и OpenAI. Първият публикува също толкова кратък доклад за Llama 4, докато вторият изобщо отказа да публикува данни за GPT-4.1.
Кевин Банкстън от Центъра за демокрация и технологии нарече тенденцията „надпревара към дъното“: „Компаниите съкращават времето за тестване от месеци на дни, а докладите им стават все по-малко информативни.“ Той отдаде това на пазарната надпревара, където скоростта на пускане на продукта има предимство пред безопасността.
Google, от своя страна, настоява, че провежда „съпернически червен екип“, преди да пусне модели, но не включва всички данни в публични доклади. Експертите обаче са уверени, че без пълна и навременна прозрачност, доверието в AI индустрията ще намалее и регулаторите може да затегнат изискванията, забавяйки напредъка в индустрията.
https://techcrunch.com/2025/04/17/go...s-experts-say/