Страница 8 от 8 ПърваПърва ... 678
Резултати от 106 до 112 от общо 112
Like Tree6Одобрявам

Чат с изкуствен интелект

Сподели във Facebook Сподели в Twitter Изпрати на Email Сподели в LinkedIn
  1. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #106

    Отговор: Чат с изкуствен интелект

    Повече от 120 часа годишно: Това е колко биха могли да спестят работниците , като използват AI, но мнозина се страхуват да го направят, според проучване на Google
    Публикувани са резултатите от пилотния проект


    Проучване на Google установи, че работниците могат да спестят повече от 120 часа годишно, като използват изкуствен интелект (AI) в административни задачи. Компанията каза, че Обединеното кралство може да отключи £400 милиарда ($533 милиарда) в растеж, управляван от AI, ако обучи работната си сила.

    Прости стъпки като даване на разрешение на работниците да използват AI и няколко часа обучение, за да започнат, биха могли да удвоят приемането на новата технология и на свой ред да стимулират икономическия растеж, според проучване на Google.

    Американският технологичен гигант зад чатбота Gemini AI заяви, че две трети от работниците, особено по-възрастните жени от по-нисък социално-икономически произход, никога не са използвали генеративен AI на работа, според анализ на Public First, негов партньор в програмата. Деби Уайнстийн, президент на Google за Европа, Близкия изток и Африка, каза, че пилотните проекти на AI Works в малки бизнес мрежи, образователни институции и синдикат са показали, че работниците могат да спестят средно 122 часа годишно, като използват AI за административни задачи.

    Въпреки това, една от бариерите, които попречиха на някои да започнат да използват AI, бяха опасенията дали могат да използват тези инструменти в работата си.

    „Хората искаха „разрешение за бакшиш“, каза Уайнщайн в интервю. — „Мога ли да направя това?“ И затова беше наистина важно да им дадем тази увереност."

    След като започнаха да използват технологията, каза тя, няколко часа обучение с помощта на AI доведоха до използването на функцията два пъти по-често и те все още я използваха месеци по-късно.

    Например, преди проучването само 17% от жените над 55 години са използвали AI седмично и само 9% ежедневно. Три месеца по-късно 56% са го използвали всяка седмица, а 29% са го превърнали в ежедневен навик.

    https://www.reuters.com/business/wor...le-2025-04-24/




    AI издържа теста на лекарите: Нов подход към структурирането на знанията подобрява точността на диагнозата
    Учените подчертават: целта не е да се заменят лекарите, а да се намалят диагностичните грешки


    Изследователи от университета в Бъфало направиха пробив в медицинския изкуствен интелект: техният метод за семантичен клиничен изкуствен интелект (SCAI) позволи на езиковите модели значително да подобрят представянето си на изпита USMLE, американския медицински лицензионен тест. Ключов компонент на технологията, RAG двигателят, обогатява модела със структурирани клинични данни, което е особено полезно за компактните версии на AI. Например, моделът с 13 милиарда параметъра успя да премине прага за преминаване на USMLE стъпка 3 само след интегриране на SCAI, докато по-мощните версии (70 и 405 милиарда параметри) постигнаха точност над 90% на отделни стъпки. Това откритие определя посоката за разработване на инструменти, които могат да работят в партньорство с лекарите.

    Принципът на SCAI е подобен на създаването на дигитален медицински справочник. Алгоритъмът анализира образователни материали, клинични указания и бази данни (като MedlinePlus и DrugBank), като идентифицира връзките между симптоми, тестове и диагнози под формата на триплети обект-връзка-субект. Тези структурирани данни се преобразуват в числени модели, които моделът използва, за да предостави контекст, когато отговаря на въпрос. Например, когато бъде попитан за пациент с кашлица и температура, системата автоматично включва информация за типичните патогени, които причиняват пневмония, или препоръчва изключване на COVID-19. Този подход намалява риска от „халюцинации” – генериране на непроверени факти.

    Ефективността на метода се потвърждава от конкретни случаи. Един въпрос на USMLE описва 24-годишна пациентка с често уриниране поради авиофобия. Основният модел Llama 13B без SCAI предложи успокоение, но след добавяне на структурирани данни (връзката между употребата на орални контрацептиви и аменореята, ролята на анализа на урината при диагностицирането на кристалурия), AI препоръча поведенческа терапия - правилният отговор, съответстващ на индуцираната от стрес дисфункция на пикочния мехур.

    Основното предимство на SCAI RAG е възможността за „преквалифициране“ на модели без пълното им възстановяване. Това е критично за медицината, където данните непрекъснато се променят. Например, когато се появят нови клинични насоки за лечение на диабет, системата може бързо да ги интегрира в своята база данни, без да изисква месеци на преквалификация. Нещо повече, нивото на грешни отговори за най-големия модел (405B) със SCAI е само 4,9% на етап Стъпка 3, в сравнение с типичните 10-15% за основните AI.

    Авторите подчертават, че целта на технологията не е да замени лекарите, а да създаде инструменти за намаляване на диагностичните грешки и ускоряване на вземането на решения. SCAI вече може да се използва в образованието днес, например за симулиране на сложни клинични случаи при преподаване на студенти. В бъдеще такива системи могат да станат част от електронните медицински досиета, като анализират историята на пациента и предлагат на лекаря актуални препоръки.

    Прилагането на такива решения обаче ще изисква внимателно валидиране. Следващата стъпка за учените е тестването на SCAI в реална клинична практика, където е важно не само качеството на отговорите, но и скоростта на работа, интеграцията с медицинско оборудване и етичните аспекти.

    https://jamanetwork.com/journals/jam...rticle/2833129




    AI се научава да вижда като мозъка: Пробив в машинното зрение
    Може да подобри самоуправляващите се автомобили и медицинската диагностика


    Учени от Южна Корея и Германия са разработили нов метод за изкуствен интелект (AI), който прави машинното зрение по-близо до човешкото. Технологията, наречена Lp-Convolution, позволява на AI да обработва изображения по-ефективно, подобно на това, което прави зрителната кора на мозъка. Резултатът е подобрена точност на разпознаване, намалени изчислителни разходи и нови перспективи за области, вариращи от автомобили без водач до медицинска диагностика.

    Традиционните AI системи като конволюционните невронни мрежи (CNN) използват фиксирани филтри за анализ на изображения. Това ограничава способността им да възприемат сложни детайли. Други модели, Vision Transformers, макар и мощни, изискват огромно количество изчислителна мощност. Lp-Convolution се занимава с тези проблеми, като се вдъхновява от работата на зрителния кортекс на мозъка. Вместо твърди филтри, новият метод използва гъвкави филтри, които се адаптират към формата на обект, подобно на това как невроните в мозъка се фокусират върху ключови детайли.

    Тестването на Lp-Convolution върху наборите от данни CIFAR-100 и TinyImageNet показа подобрения в точността както на класическите, така и на най-съвременните CNN модели. Нещо повече, сравняването на моделите на обработка на AI с невронната активност в мозъците на мишки разкри поразителни прилики, потвърждавайки биологичната правдоподобност на новия метод. Lp-Convolution не само подобрява ефективността на CNN, но също така ги прави по-малко ресурсоемки, предлагайки алтернатива на по-сложните системи.

    Това откритие може потенциално да доведе до по-ефективни и адаптивни алгоритми. Екипът от учени, направили откритието, планира да проучи потенциала на тази технология за решаване на сложни проблеми като решаване на пъзели и обработка на видео в реално време. В опит да доразвие и да си сътрудничи в тази област, екипът пусна кода и предварително обучените модели с отворен код в GitHub. Това ще позволи на други изследователи да експериментират с технологията и да допринесат за нейното развитие.

    https://ibs.re.kr/cop/bbs/BBSMSTR_00...nd=&searchWrd=




    Grok вече може да „вижда“ света около себе си: AI на Илон Мъск стана по-удобен и гъвкав
    „Представяме ви Grok Vision, многоезично аудио и гласово търсене в реално време“


    Компанията за изкуствен интелект на Илон Мъск xAI представи актуализация на своя чатбот Grok, който му позволява да „вижда“ света около себе си. Тази нова функция позволява на чатбота да обработва и интерпретира визуално въвеждане, което е друга важна стъпка във взаимодействието между изкуствения интелект и хората.

    „Представяме Grok Vision, многоезично аудио и гласово търсене в реално време. Актуализацията вече е налична“, казаха от компанията.

    Подобреният чатбот Grok използва усъвършенствана технология за компютърно зрение, за да анализира изображения и видеоклипове, като предоставя чувствителни към контекста отговори. Например, потребителите могат да качат снимка на продукт и Grok може да го идентифицира, да предложи употреби или дори да препоръча подобни продукти. Това прави Grok по-гъвкав и интуитивен.

    С тази актуализация xAI се позиционира като силен конкурент в областта на AI, предизвиквайки утвърдени играчи като OpenAI и Google.

    https://x.com/ebbyamir/status/1914820712092852430




    Системата за изкуствен интелект на Alibaba получи одобрение от FDA за ранна диагностика на панкреаса
    Системата Damo Panda анализира изображенията по-точно от лекарите


    Китайският технологичен гигант Alibaba направи пробив в медицинския AI: неговата Damo Panda получи статут на „устройство за пробив“ от FDA. Решението ще спомогне за ускоряване на въвеждането на система, която може да открие рак на панкреаса в ранен стадий, заболяване, известно със своя латентен ход и висока смъртност.

    Инструментът анализира медицински изображения с помощта на алгоритми, обучени да разпознават фините промени в тъканите, които често избягват вниманието на лекарите. Damo Panda идентифицира модели, които показват началото на заболяването, увеличавайки шансовете на пациентите да получат навременно лечение.

    Резултатите от алгоритмите са публикувани в списанието Nature Medicine. В Китай системата вече е тествана върху 40 000 пациенти в болница в Нинбо, но подробности не са разкрити. Одобрението на FDA не само потвърждава ефективността на разработката, но и отваря пътя за използването й в САЩ. Damo Academy, изследователското звено на Alibaba, планира да си партнира с компании като Ankon Medical Technologies, за да мащабира технологията.

    Това постижение засилва позицията на Китай в глобалната надпревара за AI технологии. Бившият главен изпълнителен директор на Alphabet Ерик Шмид по-рано предупреди, че инвестициите на Пекин в изкуствен интелект, включително проекти като DeepSeek, могат да дадат на страната лидерство в тази област. В същото време напрежението нараства около доставките на чипове, като китайски компании, включително Alibaba, Tencent и ByteDance, активно купуват чипове Nvidia H20 въпреки ограниченията за износ от САЩ. Успехът на Alibaba в областта на медицината се допълва от нарастващата популярност на неговото приложение Quark AI, което изпревари конкурента си ByteDance по отношение на броя на потребителите.

    Акциите на Alibaba се повишиха леко след новината за одобрението на FDA, с 0,25% до 109,14 долара. Damo Panda потенциално може да се превърне в стандарт за ранно откриване на рак, намалявайки времето за диагностициране и подобрявайки прогнозата за пациентите.

    https://www.benzinga.com/25/04/44895...through-status
    https://www.scmp.com/tech/big-tech/a...proval-process




    Светът никога не е виждал нещо подобно: ОАЕ ще бъдат първите в света, които ще използват AI, за да пишат закони
    Това ще ускори приемането на законите.


    Обединените арабски емирства (ОАЕ) ще станат първите в света, които ще използват изкуствен интелект (AI) за изготвяне на ново законодателство, както и за преглед и изменение на съществуващите.

    Financial Times (FT), който съобщи новината, нарече плановете на ОАЕ „радикален опит да се използват технологии за милиарди долари“.

    „Новата законодателна система, задвижвана от AI, ще промени начина, по който създаваме закони, като направи процеса по-бърз и по-точен“, каза министър-председателят Мохамед бин Рашид Ал Мактум.

    Властите в страната планират AI, който "редовно ще предлага актуализации на законодателството", да ускори приемането на закони със 70%. В същото време AI ще помогне „да се проследи как законите влияят на населението и икономиката на страната“.

    https://www.ft.com/content/9019cd51-...6-eafcf28609c3




    ОАЕ стартира първия в света правен експеримент с ИИ
    Страната стартира система, която анализира хиляди документи, за да пише наредби.


    Обединените арабски емирства стартираха проект за интегриране на изкуствения интелект в законодателния процес, превръщайки се в първата страна, която използва алгоритми за генериране на проекторегулации. Според Financial Times системата за изкуствен интелект, представена от правителството, ще анализира съществуващото законодателство, международните стандарти, правителствените стратегии и общественото търсене, за да генерира първоначални версии на закони. Целта е да се ускори вземането на решения и да се подобри тяхната валидност чрез обработка на големи количества данни.

    Основните предимства на системата, според поддръжниците, включват намаляване на времето, необходимо за разработване на закони чрез автоматизиране на събирането и първоначалната обработка на информация; обективност на решенията, базирани на данни, а не на лични предпочитания; алгоритми разкриват скрити модели, които хората могат да пропуснат; минимизиране на грешките, причинени от човешки фактори, като политически натиск или когнитивни пристрастия.

    Експертите обаче посочват рискове, на които трябва да се обърне внимание. Сред тях е липсата на ясни механизми за отговорност за последиците от законите, създадени от AI. „Ако алгоритъмът направи грешка или възпроизведе отклоненията в данните, кой е отговорен?“ — пита Лана Ал Махри, специалист по дигитална етика в университета в Дубай. Друг проблем са ограниченията на AI в разбирането на социалните нюанси. Технологията все още не е в състояние да оцени напълно етичните дилеми или културните специфики, които са критични за законотворчеството.

    Властите на ОАЕ подчертават, че AI няма да замени хората, а ще се превърне в помощно средство. Окончателните решения ще бъдат на законодателите, които също така ще следят за съответствието на проектите с националните ценности. Подробности за внедряването, като използваните алгоритми или етапите на внедряване, все още не се разкриват. Известно е само, че системата се тества в затворен режим.

    https://slguardian.org/uae-to-pionee...oogle_vignette




    OpenAI въвежда скрити водни знаци в ChatGPT за борба с плагиатството: Ефективността е под въпрос
    Компанията Руми е открила скрити символи в текстовете на GPT-o3, но те могат да бъдат премахнати с няколко кликвания


    OpenAI, компанията зад чатбота ChatGPT, добави невидими водни знаци към текстове, генерирани от новите модели GPT-o3 и GPT-4o-mini. Както установиха експерти от Rumi, това се прави, за да се идентифицира съдържание, генерирано от AI, но ефективността на метода е под въпрос.

    Изследователите откриха, че при генериране на дълги текстове, като есета, моделите вграждат Unicode символа Narrow Space (U+202F). Визуално не се различава от обикновеното пространство, но се различава в ASCII кода. Такива знаци могат да бъдат забелязани само с помощта на специализирани инструменти: онлайн анализатори на символи, редактори на кодове (Sublime Text, VS Code) или текстови анализатори. Например, когато копирате есе, генерирано от GPT-o3, тези програми показват модел на NNBSP, който потвърждава произхода на текста.

    OpenAI не е обявил иновацията публично. Въпреки това, след изтичане на информация през април за тестване на воден знак на изображение, Руми проведе свой собствен анализ. По време на проверката се оказа, че по-ранните версии, включително GPT-4o, не съдържат такива маркери.

    Основното предимство на метода е почти нулевият шанс за фалшиви положителни резултати. Тъй като е малко вероятно студентите да използват умишлено U+202F в своите документи, откриването на такива знаци ясно показва заемане от ChatGPT. Основният недостатък обаче е крехкостта на защитата. След като потребителите знаят за водните знаци, те могат да бъдат премахнати за секунди с помощта на функцията „намиране и замяна“ във всеки редактор. Видео инструкции как да изчистите текст вече се появяват онлайн.

    Ситуацията се влошава от факта, че ChatGPT е достъпен за студентите безплатно до края на май 2025 г. Това съвпада с периода за изпращане на курсови и дипломни работи. Неинформираните студенти, които копират текст, без да го проверяват, рискуват да бъдат обвинени в плагиатство. Тези, които познават водните знаци, печелят предимство, разширявайки пропастта между потребителите на AI и тези, които пишат свои собствени произведения.

    От OpenAI все още не са коментирали ситуацията. Ако историята стане публична, компанията може да се откаже от водните знаци, точно както преди това изостави неточния AI детектор.

    https://www.rumidocs.com/newsroom/ne...rmarks-on-text




    ChatGPT вече може да дешифрира ръкописни бележки, да решава математически задачи и да идентифицира проблеми в екранни снимки на софтуерни грешки
    пуснати модели o3 и o4-mini


    Моделите o3 и o4-mini на OpenAI вече могат да анализират изображения като човек OpenAI представи два нови модела, o3 и o4-mini, които позволяват на ChatGPT да обработва и разбира изображения по начин, подобен на човешкото мислене.

    Тези модели могат да интерпретират качени от потребители изображения като снимки, диаграми или екранни снимки и да предоставят подробен анализ. Например, ChatGPT вече може да чете ръкописни бележки, да решава визуални математически задачи или да идентифицира проблеми в екранна снимка на софтуерна грешка.

    Моделите постигат това, като включват визуална информация в своя процес на разсъждение, което им позволява да манипулират изображения - като завъртане или мащабиране - за по-добро разбиране на съдържанието. Това ви позволява да предоставяте по-точни и пълни отговори, дори когато работите с несъвършени или сложни изображения.

    Тези функции са достъпни за потребители на ChatGPT Plus, Pro и Team, като в близко бъдеще се планира повече достъп.

    https://mspoweruser.com/openais-o3-a...-like-a-human/




    ChatGPT се учи да идентифицира местоположения по снимка: Нови възможности и рискове за поверителността
    OpenAI обещава да блокира заявки за лични данни, но тестовете разкриват уязвимости


    Потребителите на социалните медии активно обсъждат тревожна тенденция: невронните мрежи OpenAI - модели o3 и o4-mini - започнаха да се използват за определяне на местоположението от снимки. След неотдавнашното обявяване на тези системи, които могат да анализират изображения чрез "разсъждение" (изрязване, завъртане, мащабиране), ентусиастите започнаха да ги тестват като географски детективи. Технология, предназначена да подобри достъпността на съдържанието и да подпомогне изследванията, се превърна в инструмент, който застрашава поверителността.

    Има десетки примери в платформата X, където o3 успешно идентифицира градове, паметници и дори заведения от размазани снимки, менюта или фасади. Потребителите инструктират AI ​​да "играе GeoGuessr" - игра за отгатване на местоположения чрез Google Street View. В същото време, според тестовете, моделите често игнорират EXIF ​​​​данни (метаданни за мястото на снимане) и не разчитат на историята на диалозите, което прави техния анализ независим, но потенциално опасен.

    Експериментът на TechCrunch даде смесени резултати. o3 и по-старият GPT-4o, на който липсваха функции за анализ на изображения, се справиха почти еднакво добре със задачите. Например, и двата модела правилно идентифицираха кадър от парка Йосемити въз основа на неговите характерни скали. В един тест обаче o3 надмина своя предшественик: когато му беше представена снимка на лилава глава на носорог в тъмен бар, той посочи заведение в Уилямсбърг, Ню Йорк, докато GPT-4o грешеше, предполагайки кръчма в Обединеното кралство.

    Въпреки това, точността на o3 далеч не е идеална. В някои случаи моделът блокира или даде неправилни отговори. Например, тя свързва снимка на парижко кафене с квартал в Барселона и погрешно приписва снимка на типичен американски супермаркет на австралийски. Потребителите отбелязват, че изкуственият интелект често „се досеща“ въз основа на незначителни детайли като растителност или архитектурни стилове.

    Основният проблем е липсата на ясни бариери срещу насилието. Нападателят може да качи екранна снимка от нечия история в Instagram* в ChatGPT и системата ще се опита да определи местоположението, дори ако снимката няма геотагове. Това създава рискове от деанонимизация.

    OpenAI заяви, че е въвел предпазни мерки: моделите са обучени да отхвърлят искания за идентифициране на лица и анализ на чувствителни данни. „Ние активно следим за злоупотреби и актуализираме нашите политики за използване“, каза говорител на компанията. На практика обаче филтрите работят избирателно. Например, изкуственият интелект с удоволствие помага при намирането на ресторант по интериора му, но отказва да разпознае лица на същите снимки.

    Новите функции на ChatGPT със сигурност са полезни при извънредни ситуации или за изследване на местната история. Въпреки това, лекотата на използването им за геотърсене изисква преразглеждане на стандартите за цифрова сигурност. Докато общността споделя лайфхакове за това как да скриете метаданни или да изкривите снимки преди публикуване, OpenAI мълчи относно плановете за укрепване на сигурността.

    https://techcrunch.com/2025/04/17/th...h-from-photos/




    Физика, не фантазия: MIT Startup разкрива AI платформа за борба с промишлените отпадъци за $8 трилиона
    Специализиран AI за инженери обещава да трансформира хаоса от чертежи и устни инструкции в ясни алгоритми - вече се тества в корпорациите Fortune 500


    Основаната от MIT стартираща фондация EGI обяви стартирането на платформа за изкуствен интелект, която според нея може да намали глобалните промишлени отпадъци с 8 трилиона долара. Engineering General Intelligence (EGI) има за цел да автоматизира управлението на жизнения цикъл на продуктите – от дизайна до пускането – в отрасли, все още доминирани от ръчни процеси и фрагментирани данни.

    Платформата, която вече е тествана от няколко компании от Fortune 500, е базирана на езиков модел, адаптиран за инженерни задачи. За разлика от аналози с общо предназначение като ChatGPT, EGI анализира неструктурирани технически спецификации, чертежи с бележки „на коляно“ и дори устни инструкции, превръщайки ги в точни алгоритми за производствени системи. „Типичните LLM правят грешки във физическите изчисления или не разбират контекста“, обясни изпълнителният директор на Foundation EGI Мок О. „Нашият модел е обучен на инженерни данни и знае как да начертае границата между креативно предложение и технически невъзможна идея.“

    Технологията на стартъпа е събрала 7,6 милиона долара първоначално финансиране от E14 Fund, Union Lab Ventures, Samsung Next и Henry Ford III. Част от средствата отиват към пилотни проекти, включително партньорство с автомобилния производител Inteva Products. „Преди това инженерите прекарваха 30% от времето си в търсене на актуални версии на чертежи“, каза ИТ директорът на компанията Денис Ходжис. „EGI автоматизира документооборота и идентифицира 12% от излишните операции във веригата за доставки.“

    Академичната основа за проекта беше изследване от лабораторията на професора на MIT Wojciech Matusik, публикувано през март 2024 г. Ученият доказа, че AI моделите, адаптирани за инженерство, са 40% по-точни при прогнозиране на натоварванията в CAD проекти и 65% по-ефективни при предлагането на алтернативни материали, когато компонентите са в недостиг. „EGI е преводач между езика на инженерите и езика на машините“, каза Матусик на скорошен разговор в MIT. „Платформата не замества хората, но ни позволява да работим върху идеи за една седмица, което преди отнемаше месеци.“

    Системата се интегрира с популярни CAD програми (напр. SolidWorks), PLM системи (включително Siemens Teamcenter) и MES платформи, което опростява внедряването без преструктуриране на работния цикъл. Облачна услуга с поетапни плащания е достъпна за по-малките фирми, но основният фокус е върху по-големите производители с дългогодишно „наследство“ от различни бази данни и остарели спецификации. Фондация EGI твърди, че техният модел се обучава върху документацията на всеки клиент и е внедрен модул за валидиране с участието на инженерни куратори за персонализиране.

    До края на 2025 г. стартъпът планира да свърже 100 компании към платформата като част от бета тестване, а до 2027 г. да достигне нивото на обработка на 20% от глобалните индустриални данни. Ако амбициите на основателите се реализират, това може да бъде повратна точка за една индустрия, в която 73% от фирмите все още разчитат на електронни таблици и хартиени дневници на Excel.

    https://roboticsandautomationnews.co...ocesses/89853/
    https://www.foundationegi.com/




    98,7% от опасните заявки са блокирани: OpenAI укрепва защитата на AI моделите срещу биозаплахи с автоматизирано наблюдение
    Но дори мощните алгоритми не могат да заменят хората


    OpenAI обяви нова функция за сигурност за своите модели o3 и o4-mini, насочена към предотвратяване на използването им за създаване на биологични и химически заплахи. Разработеният монитор анализира потребителските заявки в реално време и блокира тези, свързани с рискови сценарии, като разработването на биологични оръжия.

    Според вътрешен доклад на OpenAI, системата е базирана на алгоритъм, който следи „разсъжденията“ на моделите, за да идентифицира нарушенията на правилата за съдържание. Като част от тестването, специален екип за тестване на уязвимости (така нареченият „червен екип“) прекара над 1000 часа в симулиране на опасни диалози. В 98,7% от случаите o3 и o4-mini отказаха да предоставят информация, свързана с биологични опасности. Компанията обаче признава, че тестовете не са взели предвид ситуации, при които потребителите преформулират забранени заявки, след като са били блокирани. Следователно, известна отговорност все още се носи от човешкия контрол.

    Новите модели, особено o3, показват подобрена производителност при отговаряне на сложни технически въпроси, което според OpenAI увеличава потенциалните рискове. Въпреки че настоящите версии не достигат „прага на висок риск“, техните възможности превъзхождат предишните разработки, включително GPT-4. За да минимизира заплахите, компанията е интегрирала подобна система за наблюдение в генератора на изображения GPT-4o, който вече автоматично блокира опитите за създаване на изображения на забранени теми (CSAM).

    Критиците, включително тестващият партньор Metr, посочват недостатъци в подхода на OpenAI. Например, за модела o3 беше отделено малко време за тестване на устойчивостта на измамни тактики. Освен това стартирането на GPT-4.1 миналата седмица дойде без публикуван доклад за сигурността, което повдига въпроси относно прозрачността на компанията.

    OpenAI продължава да усъвършенства рамката за готовност с акцент върху химическите и биологичните заплахи. Въпреки напредъка в автоматизацията, балансът между иновация и безопасност остава предизвикателство. Успехът на новите мерки зависи до голяма степен от способността на системите да се адаптират към еволюцията на методите на атакуващите, както и от сътрудничеството на разработчиците с независими изследователи.

    https://techcrunch.com/2025/04/16/op...vent-biorisks/
    https://www.bloomberg.com/news/artic...enge-to-google




    Grok ще може да отчита пред данъчната служба вместо вас. Chatbot печели топ класации в приложенията за финанси, право и данъци
    Разработчиците говориха за това


    Моделът Grok 3 Beta на xAI показа отлични резултати в специализирани тестове за финансов, правен и данъчен анализ. Според Vals AI, Grok 3 Beta е поела лидерството в собствените бенчмаркове, побеждавайки предишните фаворити.

    Беше тествана и олекотена версия, Grok 3 Mini Fast Beta, насочена към задачи с ниско ниво на сложност на разсъжденията. Въпреки по-малкия обем на модела, той също показа отлични резултати.

    Според разработчиците от xAI подобен напредък в областта на езиковите модели може да позволи автоматизирането, например, на изготвянето на данъчни отчети до следващия сезон.

    В xAI мислим за реалната стойност на Grok. Ние виждаме Grok 3 като най-добрия финансов и правен AI. До следващия данъчен сезон той може дори да подаде вашите данъци вместо вас.

    https://x.com/belce_dogru/status/1912965361324216680




    Чатботовете стават все по-добри в разпознаването на хора: Grok на Илон Мъск вече помни всичките ви разговори
    Но паметта му може да бъде избирателно изтрита.


    Grok, изкуственият интелект, разработен от xAI на Илон Мъск, получи нова функция: вече може да помни предишни разговори с потребители.
    Актуализация, стартирана тази седмица, позволява на системата да съхранява контекста на разговорите, което прави нейните отговори по-точни и полезни.

    Grok вече помни вашите разговори. Когато поискате препоръки или съвети, ще получите персонализирани отговори.
    Актуализацията вече е достъпна за потребителите на Grok на grok.com, x.com и в мобилните приложения за iOS и Android.

    Освен това можете да видите точно какво знае Grok и да изберете какво да забравите. За да забравите спомените, просто докоснете иконата под съобщението (тази функция все още не е налична за Android).




    „Grok вече може да генерира документи, код, отчети и браузър игри.“ Grok Studio е стартирано, добавена е поддръжка на Google Drive
    Функционалността се разширява


    Чатботовете стават все по-добри в разпознаването на хора: Grok на Илон Мъск вече помни всичките ви разговори
    Grok, чатботът от компанията за изкуствен интелект на Илон Мъск xAI, получи функция, подобна на платно, за редактиране и създаване на документи и основни приложения. Функцията, наречена Grok Studio, беше представена на 15 април. Тя е достъпна както за безплатни, така и за платени потребители.

    „Grok вече може да генерира документи, код, отчети и браузър игри“, пише в официалния X акаунт на Grok. „Grok Studio ще отвори вашето съдържание в отделен прозорец, позволявайки на вас и Grok да си сътрудничите по съдържанието.“

    Grok не е първият, който получава специално работно пространство за работа със софтуер и писане на проекти. OpenAI стартира подобна възможност, Canvas, за ChatGPT през октомври. Anthropic беше един от първите, които дебютираха с Artifacts за Claude.

    Grok Studio ви позволява да преглеждате HTML фрагменти и да изпълнявате код като Python, C++ и JavaScript. Цялото съдържание се отваря в прозорец вдясно от отговорите на Grok.

    Освен това Grok Studio става потенциално по-полезен благодарение на интеграцията си с Google Drive. Вече можете да прикачвате файлове от вашия акаунт в Google Drive към покана на Grok. Според xAI Grok може да работи с документи, електронни таблици и слайдове.

    По-рано беше съобщено, че моделът Grok-3 Mini, разработен от xAI, успешно премина един от най-трудните тестове за логическо мислене . Изкуственият интелект се справи перфектно с всички задачи, въпреки че много модели срещат трудности при подобни тестове.

    https://techcrunch.com/2025/04/15/gr...docs-and-apps/
    https://x.com/grok/status/1912318583532872166




    Клъстер от 30 000 следващо поколение P800 Kunlun чипове за тренировъчни модели като DeepSeek, както и собствен Ernie 4.5 Turbo. Baidu направи няколко големи съобщения
    Китайските банки и интернет компании вече преминаха към чипове P800.


    Клъстер от 30 000 чипа P800 Kunlun от трето поколение, които могат да поддържат тренировъчни модели като DeepSeek, беше разкрит от Baidu. Изпълнителният директор Робин Ли направи съобщението на годишната конференция за разработчици на компанията, където китайският гигант за търсене предостави актуална информация за своите усилия за изкуствен интелект (AI).

    Клъстерът P800 може да поддържа обучение на модели от типа DeepSeek със стотици милиарди параметри или едновременна фина настройка на модели от хиляди клиенти с милиарди параметри, каза той. Китайските банки и интернет компании са преминали към чипове P800, според Baidu.

    Робин Ли също представи най-новия AI модел на Baidu, Ernie 4.5 Turbo, като каза, че отговаря на най-доброто в индустрията в няколко теста за производителност, демонстрирайки възможности от кодиране до езиково разбиране. Компанията също пусна нов модел на разсъждение, наречен Ernie X1 Turbo, и каза, че ще използва възможностите си за изкуствен интелект в приложения от своя облачен диск и платформа за съдържание Baidu Wenku.

    "Има много (AI) модели, но приложенията управляват света. "Приложението е крал", каза Лий. "Без приложения моделите и чиповете са безполезни."

    Baidu беше сред първите големи китайски компании, които инвестираха сериозно в AI след дебюта на ChatGPT на OpenAI през 2022 г. Но нейният Ernie Bot се бори да спечели сцепление в лицето на силната конкуренция.

    https://www.reuters.com/world/china/...ls-2025-04-25/




    ChatGPT отива отвъд текста: Новите модели на OpenAI могат да интерпретират изображения
    Съобщението идва като изненада след февруарските съобщения на OpenAI и идва преди предстоящото пускане на GPT-5


    OpenAI има с какво да изненада своите потребители: само два дни след обявяването на GPT-4.1, технологичният гигант представи два нови модела наведнъж - o3 и o4-mini. От днес абонатите на ChatGPT Plus могат да изпробват и двете нови функции, за които OpenAI казва, че „въвеждат нова ера на AI възможности, като позволяват мислене чрез изображения“.

    Моделът o3 се позиционира като най-модерната разработка на OpenAI до момента в областта на разсъжденията. Разработчиците особено подчертават нейните „изключителни постижения“ в задачи, свързани с кодиране, математика и наука. От своя страна o4-mini действа като по-икономична алтернатива, която обаче не отстъпва по отношение на ефективността при решаване на проблеми в същите области.

    Въпреки това, най-забележителната характеристика на o3 и o4-mini е способността им да използват и комбинират всички инструменти, налични в ChatGPT, включително генериране на изображения. За първи път моделите на OpenAI могат не само да виждат изображения, но и да ги интерпретират и „мислят“ за тях, като значително разширяват хоризонтите на обработката на визуална информация. Потребителите могат да качват изображения – независимо дали са нискокачествени снимки на бели дъски, диаграми или скици – а новите модели могат да разберат съдържанието им и дори да ги адаптират, както решат. Това отваря пътя за решаване на сложни, многоетапни проблеми и, според OpenAI, ни доближава до създаването на наистина автономни системи.

    „Комбинацията от усъвършенствани възможности за разсъждение с пълен достъп до инструменти води до значителни подобрения в производителността при академични показатели и проблеми от реалния свят, поставяйки нов стандарт както в интелигентността, така и в практическата полезност“, каза OpenAI.

    В допълнение към новите модели, OpenAI също обяви Codex CLI, нов агент за писане на код, подобен на Claude Code. Първоначално инструментът поддържа o3 и o4-mini и скоро ще поддържа GPT-4.1.

    Настоящото съобщение дойде като изненада след съобщението на Сам Алтман през февруари, че компанията променя курса си. По това време Алтман каза, че o3, който беше представен в края на миналата година, няма да бъде пуснат като самостоятелен продукт. В началото на април обаче плановете се промениха и Алтман обяви пускането на o3 и o4-mini. В своя X акаунт той обясни „промяната на плановете“ с желанието да направи GPT-5 „много по-добър от първоначално предвиденото“, както и трудностите при „интегрирането на всичко гладко“ и осигуряването на достатъчен капацитет за „безпрецедентно търсене“. Така че опростяването, което Altman обеща през февруари, вероятно ще бъде отложено до пускането на GPT-5, което според него се очаква през „следващите няколко месеца“.

    Междувременно потребителите на ChatGPT Plus, Pro и Team могат да започнат с o3 и o4-mini днес. През следващите седмици OpenAI също така планира да пусне o3-pro, още по-мощна версия на своя водещ модел за разсъждение, който ще бъде достъпен за абонатите на Pro.

    https://www.engadget.com/ai/openais-...170043465.html




    Готов ли е OpenAI да коригира правилата за безопасност в името на конкуренцията? Актуализираната система за готовност позволява корекции, ако конкурентите поемат рискове
    Критиците виждат това като надпревара за печалба за сметка на безопасността.


    OpenAI актуализира своята рамка за готовност, вътрешен механизъм, използван за оценка на безопасността на AI моделите в процес на разработка и определяне какви предпазни мерки да се вземат по време на фазите на създаване и внедряване. В актуализираната версия компанията каза, че може да „коригира“ собствените си изисквания за безопасност, ако конкурентна лаборатория пусне на пазара система с „висок риск“ без подобни предпазни мерки.

    OpenAI преди това беше критикуван за предполагаемо понижаване на стандартите за сигурност, за да ускори изданията и за забавяне на публикуването на доклади за тестване на сигурността. Трябва да се отбележи, че миналата седмица 12 бивши служители на OpenAI подадоха документ като част от делото на Илон Мъск срещу компанията, твърдейки, че планирано корпоративно преструктуриране може да стимулира компанията да намали още повече разходите за мерки за сигурност.

    Преди потенциални критики OpenAI казва, че няма да приеме с лека ръка подобни корекции на политиката и ще се стреми да поддържа „по-високи нива на защита“. „Ако друг водещ разработчик на AI пусне високорискова система без сравними предпазни мерки, ние може да коригираме нашите изисквания“, каза OpenAI в публикация в блог. „Въпреки това, преди да предприемем такава стъпка, ние внимателно ще се уверим, че рисковият пейзаж наистина се е променил, публично ще признаем, че правим корекция, ще преценим, че корекцията няма да доведе до съществено увеличение на общия риск от сериозни щети и ще поддържаме по-високо ниво на защита.“

    Компанията казва, че въпреки че не изоставя изцяло воденото от хора тестване, тя е създала „нарастващ набор от автоматизирани оценки“, за които се предполага, че са в състояние „да се справят с по-бързото темпо на изданията“. Според някои данни обаче ситуацията изглежда малко по-различна. Например, Financial Times съобщава, че OpenAI е дал на тестерите по-малко от седмица, за да тестват сигурността на основен модел, който се подготвя за пускане - изключително кратък период в сравнение с предишни версии. Източниците на изданието също твърдят, че много от тестовете за безопасност на OpenAI сега се провеждат върху по-ранни версии на модели, а не върху версиите, пуснати за широката публика. В изявленията си OpenAI отрича твърденията, че компрометира сигурността.

    Сред другите промени в „Рамката за готовност“ на OpenAI, които останаха извън публичния радар, е премахването на задължителните тестове за безопасност за фино настроени модели, както е отбелязано в публикация на Стивън Адлер в X (бивш Twitter). Други промени в системата включват категоризиране на модели по ниво на риск, включително модели, които могат да скрият своите възможности, да заобиколят мерките за сигурност, да предотвратят изключване и дори да се самовъзпроизвеждат. OpenAI казва, че сега ще се фокусира върху това дали моделите достигат един от двата прага: „висока“ или „критична“ способност.

    Според дефиницията на OpenAI, „високата“ способност е способността на модела да „разшири съществуващите пътища, за да причини сериозна вреда“. „Критична“ способност се отнася до модели, които „отварят безпрецедентни нови начини за причиняване на сериозна вреда“. „Системите, които постигат висока способност, трябва да разполагат с предпазни мерки, които в достатъчна степен минимизират свързания риск от сериозни щети, преди да бъдат разгърнати“, пише OpenAI в публикация в блог. Актуализациите на системата за готовност са първите от 2023 г.

    https://techcrunch.com/2025/04/15/op...-high-risk-ai/




    Сигурност в сянка: Google под обстрел заради липса на прозрачност в доклада за сигурността на Gemini 2.5 Pro
    Експертите алармират: Липсата на данни от тестване на Gemini 2.5 Pro повдига въпроси относно безопасността на AI


    Докладът за сигурността на Google за своя водещ модел Gemini 2.5 Pro AI, публикуван в четвъртък, предизвика скептицизъм от експерти, които обвиниха компанията, че е прекалено лаконична в документа. В доклад, публикуван седмици след пускането на модела, който претендира да покаже вътрешни оценки на безопасността, липсват ключови подробности, което според анализаторите поставя под въпрос способността за обективна оценка на рисковете, свързани с ИИ.

    Техническите доклади са критичен инструмент за разбиране на възможностите и заплахите, породени от съвременните системи с ИИ. Подходът на Google към публикуването им обаче повдига въпроси. Компанията предоставя такива документи само след като моделите са напуснали „експерименталния“ етап и изключва от тях данни за тестване на „опасни способности“, оставяйки ги за затворен одит.

    Експертите посочиха липсата на споменаване в доклада на Frontier Safety Framework (FSF), инструмент на Google, въведен през 2024 г. за идентифициране на способностите на AI, които биха могли да причинят „сериозна вреда“.

    Питър Уайлдефорд, съосновател на Института за политика и стратегия за изкуствен интелект, нарече доклада „оскъден“: „Невъзможно е да се провери дали Google изпълнява публичните си ангажименти и следователно да се оцени безопасността на техните модели.“ Той също така обърна внимание на забавянето на публикуването: документът беше публикуван, след като Gemini 2.5 Pro стана достъпен за потребителите.

    Томас Уудсайд от проекта Secure AI изрази надежда, че Google ще започне да публикува актуализации по-често, но посочи „пропуски“ в докладването: например моделът Gemini 2.5 Flash все още няма публикувани данни за сигурност. Говорител на Google каза, че доклад за Flash "очаква скоро", но експертите поставиха под съмнение систематичния подход на компанията.

    Ситуацията се влошава от факта, че Google, който по-рано обеща на регулаторите „публична прозрачност“ за всички значими AI модели, сега се появява в списъка на критиците заедно с Meta* и OpenAI. Първият публикува също толкова кратък доклад за Llama 4, докато вторият изобщо отказа да публикува данни за GPT-4.1.

    Кевин Банкстън от Центъра за демокрация и технологии нарече тенденцията „надпревара към дъното“: „Компаниите съкращават времето за тестване от месеци на дни, а докладите им стават все по-малко информативни.“ Той отдаде това на пазарната надпревара, където скоростта на пускане на продукта има предимство пред безопасността.

    Google, от своя страна, настоява, че провежда „съпернически червен екип“, преди да пусне модели, но не включва всички данни в публични доклади. Експертите обаче са уверени, че без пълна и навременна прозрачност, доверието в AI индустрията ще намалее и регулаторите може да затегнат изискванията, забавяйки напредъка в индустрията.

    https://techcrunch.com/2025/04/17/go...s-experts-say/

  2.  
     
  3. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #107

    Отговор: Чат с изкуствен интелект

    OpenAI срещу човечеството? Бивши служители и Нобелови лауреати настояват комерсиализацията на компанията да бъде спряна
    Писмото е подписано от 10 бивши служители и трима носители на Нобелова награда: те предупреждават, че новите собственици на OpenAI биха могли да деактивират системата за безопасност на изкуствения интелект.


    Група бивши служители на OpenAI, носители на Нобелова награда и експерти по изкуствен интелект призоваха властите в Калифорния и Делауеър да блокират прехода на компанията към търговски модел. В отворено писмо от 21 април до главните прокурори на щата Роб Бонте и Кати Дженингс, авторите предупредиха, че преструктурирането на OpenAI заплашва да подкопае мисията му да защитава човечеството от рисковете, породени от изкуствения общ интелект (AGI).

    Инициативата е подписана от 10 бивши служители на компанията, включително бившия съветник по етика Пейдж Хедли, трима носители на Нобелова награда и водещи изследователи в областта на изкуствения интелект. Те критикуваха плановете на OpenAI да предаде оперативния контрол на търговско звено, Корпорация за обществена полза (PBC). Те твърдят, че това елиминира ключови механизми за безопасност, като например независим съвет на директорите и ограничение на възвръщаемостта на инвеститорите до 100 пъти размера на инвестицията им.

    „Уставът на OpenAI в момента включва задължение за споделяне на технологии с конкуренти, ако те са близо до създаването на ОПИ. Но ако станем комерсиални, тези гаранции ще изчезнат за една нощ“, каза бившият инженер на OpenAI Аниш Тондвалкар пред Асошиейтед прес.

    Основана през 2015 г. като организация с нестопанска цел, OpenAI се управлява от хибридна структура от 2019 г.: подразделение с нестопанска цел, OpenAI LP, работи под надзора на съвет на директорите на организация с нестопанска цел. Според подписалите, новото преструктуриране на практика ще прехвърли всички правомощия на PBC, оставяйки на неправителственото крило само второстепенни проекти.

    „Въпросът, който ме тревожи, е: кой ще притежава и контролира ОБИ, след като бъде създаден? — отбеляза Пейдж Хадли. „Приоритетът на печалбата може да измести безопасността, особено с нарастването на възможностите на ИИ.“ Бившият инженер Низан Стинън го каза по-остро: „OpenAI е способен да разработи технология, която ще унищожи човечеството.“ Само организация с нестопанска цел, чието задължение е да служи на обществото, може да устои на това. „Прехвърлянето на контрола на търговска организация е предателство на мисията.“

    Компанията настоява, че промените са необходими, за да се конкурира с играчи като Anthropic и xAI на Илон Мъск. „Всички структурни корекции имат за цел да гарантират, че възможно най-много хора имат достъп до предимствата на изкуствения интелект“, се казва в изявление на OpenAI.

    Критиците обаче са убедени, че желанието да изпревари конкурентите принуждава компанията да ускори пускането на продукти, жертвайки безопасността. „Цената на грешките ще нарасне катастрофално с напредването на изкуствения интелект“, каза Хадли.

    Ситуацията се усложнява от делото на Илон Мъск, заведено през 2024 г. Съоснователят на OpenAI, който напусна борда през 2018 г., обвини компанията, че се е отклонила от първоначалните си принципи. Но настоящото писмо бележи първия път, в който плановете на OpenAI са оспорени от бивши служители и уважавани учени с подробно разбиране на рисковете от ОПИ.

    Главният прокурор на Делауеър Кати Дженингс вече обеща да проведе „задълбочен преглед на плановете на OpenAI за защита на обществения интерес“. Нейният колега от Калифорния Роб Бонта в момента се въздържа от коментар поради продължаващото разследване. Решението на регулаторните органи ще определи съдбата на преструктурирането, чийто срок е обвързан с привличането на милиарди долари инвестиции до края на 2025 г.

    https://www.techrepublic.com/article...odel-pushback/




    Надпревара за токени: Meta и Cerebras Systems стартират Llama API с рекордна скорост на обработка
    Llama вече е 20 пъти по-бърза от ChatGPT


    Meta обяви стратегическо партньорство с Cerebras Systems за стартирането на Llama API, услуга, която предоставя AI изводи до 18 пъти по-бързи от традиционните GPU решения. Съобщението идва на първата конференция за разработчици LlamaCon и отбелязва навлизането на Meta на пазара за търговски инференции, доминиран от OpenAI, Google и Anthropic. Това е първият опит на компанията в сътрудничество с хиперскалер, потвърждаващ ефективността на техните чипове с размер на вафла.

    Тестовете с изкуствен анализ показаха, че системата Cerebras обработва над 2600 токена в секунда за модела Llama 4 Scout - 20 пъти по-бързо от ChatGPT (~130 токена/сек) и с два порядъка по-бързо от DeepSeek (~25 токена/сек).

    Досега Meta се ограничаваше до отворено разпространение на модели Llama (над 1 милиард изтегляния), без да предоставя облачна инфраструктура. Сега компанията ги трансформира в търговски продукт, директно конкурирайки се за пазара на токени. „Разработчиците ги купуват на милиарди като инструкции за приложения с изкуствен интелект“, каза Джеймс Уанг от Cerebras. „Скоростта от 100 токена/сек на GPT е добра за чатове, но не е подходяща за многоетапен анализ или гласови системи.“

    Новият API отваря възможности за приложения, които изискват минимална латентност: интерактивно генериране на код, многостепенен анализ за секунди вместо минути, гласови интерфейси с отговор в реално време. Услугата поддържа фина настройка на модели (започвайки с Llama 3.3 8B) и предоставя инструменти за оценка на тяхното качество. Meta гарантира, че данните на разработчиците няма да бъдат използвани за обучение на техни собствени модели и че готови решения могат да бъдат прехвърляни към други платформи - за разлика от затворените системи на конкурентите.

    API на Llama вече е достъпен в ограничен предварителен преглед. За да се свържат, разработчиците просто трябва да изберат Cerebras в настройките на SDK Meta и да получат API ключ. Масовото пускане в експлоатация се очаква през следващите месеци.

    https://venturebeat.com/ai/meta-unle...ns-per-second/




    OpenAI се изправя срещу Chrome на фона на антитръстовия сблъсък на Google
    OpenAI планира да използва Chrome за обучение на своите модели


    Като част от текущото антитръстово дело, заведено от Министерството на правосъдието на САЩ срещу Google, OpenAI е заявила готовност да обмисли придобиването на водещия браузър Chrome на търсачката. Това обяви Ник Търли, ръководител на продуктовия отдел в OpenAI, по време на изслушване, посветено на разработването на мерки за премахване на монополното положение на Google.

    Контекст: Миналата година федералният съдия Амит Мехта призна Google за виновен в нарушаване на антитръстовите закони. Министерството на правосъдието, стремейки се да възстанови конкуренцията на пазара, предложи принудителна продажба на Chrome като една от опциите си. Съдията първоначално е бил скептичен към идеята, съобщиха източници, но служители на Министерството на правосъдието настояват, че браузърът е ключова част от монопола на Google и че отделянето му от компанията би могло да доведе до голяма промяна.

    Търли беше недвусмислен, когато беше директно попитан за интереса на OpenAI към придобиването на Chrome: „Да, ние бихме били заинтересовани, както и много други играчи на пазара.“ Тази позиция потвърждава предишните изявления на компанията за планове за създаване на собствен уеб браузър, за който вече са поканени разработчици, работили преди това в Google.

    Според Търли, придобиването на Chrome не само ще увеличи видимостта на OpenAI, но и ще предостави на компанията огромно количество данни за обучение на своите AI модели. Милиарди потребители на Chrome предоставят ценна информация за моделите на онлайн поведение, която може да се използва за разработване на AI агенти, които могат да се конкурират със съществуващите решения на пазара на труда.

    В допълнение към Chrome, Министерството на правосъдието предлага Google да предостави достъп до своя индекс за търсене и на други компании, което според агенцията би изравнило условията за конкуренция. По време на процеса стана ясно, че OpenAI вече е правила опити да получи достъп до индекса. В имейли, представени като доказателство, Търли се обърнал към ръководителите на Google с предложение за сътрудничество, като подчертал, че „наличието на множество партньори, и по-специално API-тата на Google, ще ни позволи да предоставим по-добър продукт на потребителите“. Google обаче отхвърли искането на OpenAI, опасявайки се, че това може да застраши водещата им позиция в търсенето.

    Към този момент изходът от антитръстовото дело и бъдещето на Google остават несигурни. Въпреки това, предвид заявения интерес на OpenAI, е напълно възможно Chrome да бъде преименуван на ChromeGPT и да стане част от екосистемата на компания, която активно развива областта на изкуствения интелект.

    https://futurism.com/openai-chrome-google-antitrust

  4. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #108

    Отговор: Чат с изкуствен интелект

    https://www.bloomberg.com/news/artic...ructuring-plan




    Как да изберете ChatGPT за себе си, обяснено в OpenAI: посочени са разликите и ограниченията на GPT-4o, GPT-4.5, o4-mini, o4-mini-high, o3 и o1-pro
    GPT-4o е подходящ за употреба в ежедневни работни процеси


    OpenAI публикува инструкции как да изберете правилния модел чатбот ChatGPT, които са достъпни на официалния уебсайт. Разнообразие от модели, като GPT-4o, GPT-4.5, o4-mini, o4-mini-high, o3 и o1-pro, позволяват на потребителите да изберат инструмент за специфични задачи.

    Моделът GPT-4o е подходящ за ежедневни задачи, които изискват бързина и поддръжка на различни формати: текст, изображения, таблици, аудио и видео. Той е ефективен за писане на писма, анализ на документи или изготвяне на планове за действие.

    OpenAI признава, че е объркал тестването на „твърде ласкавата и досадна“ актуализация на ChatGPT
    За творчески задачи е по-добре да използвате GPT-4.5, който отчита контекста и помага при публикации в социалните медии или маркетингови текстове, но е ограничен до 20 заявки на седмица. По-универсалният GPT-4o няма такива ограничения.

    За технически запитвания, OpenAI предлага две версии на o4-mini: basic, която отговаря бързо и позволява до 300 запитвания на ден, и o4-mini-high, която предоставя подробни отговори на сложни въпроси с ограничение от 100 запитвания.

    Най-мощният o3 модел е предназначен за многоетапни задачи като стратегическо планиране или анализ на данни, но е ограничен до 100 заявки на седмица.

    Съществува и o1-pro - остарял модел, конфигуриран за сложна и дългосрочна аналитична работа.

    https://help.openai.com/en/articles/...-models-limits
    https://novyny.live/en/tehnologii/op...ch-251664.html
    https://www.bleepingcomputer.com/new...chatgpt-model/




    OpenAI признава, че е объркал тестването на „твърде ласкавата и досадна“ актуализация на ChatGPT
    Компанията ще промени подхода си към тестването


    Главният изпълнителен директор на OpenAI, Сам Алтман, призна, че последните актуализации на GPT-4o са го направили „твърде подлизурски и досаден“ и обясни защо.

    В последните актуализации OpenAI започна да използва данни от бутоните „палец нагоре“ и „палец надолу“ в ChatGPT като „допълнителен сигнал за награда“. OpenAI обаче заяви, че това би могло да „отслаби въздействието на основния ни сигнал за възнаграждение, който възпираше подлизурството“. Компанията отбелязва, че обратната връзка от потребителите „понякога може да е в полза на по-приятни отговори“, което вероятно изостря прекалено приятните забележки на чатбота. Компанията заяви, че паметта може също да засили подмазвачеството.

    OpenAI казва, че едно от „ключовите предизвикателства“ на старта е процесът на тестване. Въпреки че оценките на офлайн моделите и A/B тестовете дадоха положителни резултати, някои експертни тестери предположиха, че актуализацията е направила чатбота „малко по-различен“. Въпреки това, OpenAI продължи с актуализацията.

    В ретроспекция, качествените оценки намекнаха за нещо важно, на което е трябвало да обърнем по-голямо внимание. Те откриха сляпо петно ​​в другите ни оценки и показатели. Нашите офлайн оценки не бяха достатъчно широки или задълбочени, за да уловят подлизурското поведение... а нашите A/B тестове нямаха правилните сигнали, за да покажат как моделът се представя на този фронт с достатъчна детайлност.

    OpenAI заявява, че планира „официално да прегледа поведенческите проблеми“ като потенциални пречки за стартирането и да създаде нова фаза на алфа тестване, която ще позволи на потребителите директно да предоставят обратна връзка на OpenAI преди по-широко внедряване. OpenAI също така планира да гарантира, че потребителите са наясно с промените, които прави в ChatGPT, дори ако актуализацията е малка.

    Миналата седмица Сам Алтман заяви, че компанията ще направи корекции , за да се справи с „лигавата и досадна“ личност на чатбота, която се появи след актуализацията.

    https://www.theverge.com/news/661422...hat-went-wrong




    Nvidia съкращава един час аудио в секунда: Моделът за преобразуване на реч в текст с отворен код предизвиква GPT-4o
    Безплатният и бърз модел на Parakeet заплашва платените решения за обработка на реч


    Nvidia продължава да разширява линията си от модели с отворени невронни мрежи. Новата му разработка, системата за автоматично разпознаване на реч (ASR) Parakeet-TDT-0.6B-v2, е способна да транскрибира аудио с продължителност един час само за една секунда, доближавайки се до точността на платени аналози като GPT-4o и ElevenLabs Scribe. Моделът е достъпен под безплатен лиценз CC-BY-4.0, който позволява търговска употреба без ограничения.

    Parakeet-TDT-0.6B-v2, пуснат на 1 май, оглави класацията на Hugging Face за Open ASR с процент на грешки в думите (WER) от 6,05%. За сравнение: за GPT-4o-transcribe този параметър е 2,46%, за ElevenLabs Scribe е 3,3%. Моделът използва архитектурите FastConformer (енкодер) и TDT (декодер), обработвайки аудио 3386 пъти по-бързо от реално време с размер на пакета от 128. Поддържа пунктуация, главни букви и точни времеви отметки за всяка дума.

    Моделът е обучен върху набора от данни Granary, който съдържа 120 000 часа записи на английски език. От тях 10 000 часа са данни с етикети, използвани от хора, от LibriSpeech и Mozilla Common Voice, а 110 000 са псевдомаркирани данни от отворени източници като YouTube-Commons и Librilight. Nvidia планира да публикува пълния набор от данни след конференцията Interspeech 2025.

    Parakeet-TDT-0.6B-v2 демонстрира стабилна работа в шумна среда и с телефонни аудио записи, въпреки че при ниско съотношение сигнал/шум точността леко намалява. Моделът е оптимизиран за графични процесори Nvidia (A100, H100, T4, V100), но може да работи дори на системи с 2 GB RAM. Python скриптове и NeMo framework са достъпни за внедряване, което позволява системата да бъде допълнително обучена за специфични задачи.

    При създаването на модела компанията заяви, че се придържа към принципите на отговорния изкуствен интелект: обучението е проведено без използване на лични данни, а документацията включва описание на методите за събиране на данни и оценка на поверителността. Не се предвиждат обаче ясни мерки за намаляване на демографските промени.

    Разработчиците вече наричат ​​Parakeet-TDT-0.6B-v2 пробив за общността с отворен код. Моделът е достъпен на платформата Hugging Face и чрез NeMo, което улеснява интегрирането му в услуги за транскрипция, гласов асистент или генериране на субтитри.

    https://venturebeat.com/ai/nvidia-la...-hugging-face/




    Фирмена тайна: 42% от служителите тайно използват изкуствен интелект на работното място
    Ivanti Research разкрива шокираща статистика за популярността на генеративния изкуствен интелект и опасните рискове за бизнеса


    Ivanti публикува резултатите от своето проучване „Технологии на работното място 2025: Оформяне на гъвкавата работа“, базирано на проучване сред над 6000 офис служители и 1200 ИТ специалисти и специалисти по киберсигурност. Проучването идентифицира редица тенденции, свързани с използването на изкуствен интелект на работното място и неговото въздействие върху производителността и удовлетвореността на служителите.

    Установено е, че 42% от анкетираните служители ще използват инструменти за генеративен изкуствен интелект на работното си място през 2025 г., което е значително увеличение спрямо 26% през 2024 г. Въпреки нарастващата популярност на подобни инструменти, значителна част от потребителите крият това от работодателите си. Почти една трета (32%) от анкетираните, които използват изкуствен интелект за подобряване на производителността, признават, че го пазят в тайна. Причините за това поведение включват страх от загуба на работа (30%), „синдром на самозванеца“, причинен от използването на изкуствен интелект (27%), и желание за запазване на „тайно предимство“ (36%). Това поражда сериозни опасения относно киберсигурността, тъй като широкото използване на неоторизирани инструменти с изкуствен интелект представлява значителен риск.

    Проучването също така установи висока разпространеност на „ресентиизъм“ (48% от служителите се чувстват негативно относно работата си, но продължават да работят там) и „презентиизъм“ (39% от служителите идват в офиса, за да „бъдат видени“, но не непременно да бъдат продуктивни). Тези явления, според авторите на изследването, показват необходимостта от повишаване на ангажираността на служителите и признаването на техните заслуги. За ИТ специалистите съпротивата и презентизмът могат да имат отрицателни последици за производителността и сигурността на цялата организация. Докато 83% от ИТ специалистите смятат, че гъвкавите работни условия са ценни или необходими, само 25% считат настоящия си график за силно гъвкав, а 64% чувстват натиск от страна на работодателите си да се върнат в офиса.

    Нещо повече, проучването установи, че по-младите работници, включително поколение Z (54%) и милениали (53%), са по-склонни да сменят работата си за по-голяма гъвкавост. Почти половината от анкетираните (48%) смятат, че негъвкавостта на графика от страна на работодателя показва липса на уважение към тях и работата им. Това подчертава значителна промяна в очакванията на работното място относно гъвкавостта и автономността, особено сред по-младите поколения.

    Проблемът със сложността на ИТ инфраструктурата заслужава специално внимание. Въпреки че компаниите планират да похарчат трилиони за инвестиции в нови технологии през 2025 г., близо половината (46%) от ИТ специалистите съобщават за увеличение на заявките за техническа поддръжка поради въвеждането на нов софтуер. Това увеличава сложността, риска и техническия дълг, възпрепятствайки иновациите. Въпреки че изкуственият интелект може да опрости технологичните процеси, той може също така да влоши нещата, ако организациите не успеят ефективно да управляват съществуващия си технологичен стек и да елиминират изолираните данни.

    В заключение, изследването на Иванти подчертава необходимостта от създаване на устойчив модел за управление на ИИ, осигуряване на прозрачност и отчитане на сложните психологически аспекти, свързани с използването на ИИ на работното място.

    https://www.businesswire.com/news/ho...vanti-Research
    https://www.ivanti.com/resources/res...s/tech-at-work




    Все повече хора използват чатботове с изкуствен интелект за самодиагностика, но експертите предупреждават за рискове
    Технологичните гиганти бързат, лекарите са бавни: чатботовете няма да заменят клиниките


    Нарастващият натиск върху здравните системи и нарастващите разходи за медицински услуги принуждават хората да се обръщат към чатботове с изкуствен интелект за самодиагностика. Според скорошно проучване, един на всеки шест възрастни американци използва подобни инструменти, за да получи медицински съвет поне веднъж месечно. Изследване на Оксфордския университет обаче показва, че прекомерното разчитане на тези системи може да доведе до грешки, тъй като потребителите не винаги разбират как да формулират правилно заявките.

    Учени от Оксфорд са набрали около 1300 участници от Обединеното кралство, като са им предоставили медицински сценарии, написани от лекари. Предизвикателството беше да се идентифицират възможни диагнози и да се изберат действия (като посещение на лекар или болница), използвайки чатботове или традиционни методи, като търсене в интернет и лична преценка. Експериментът използва GPT-4o (базовият модел на ChatGPT), Command R+ от Cohere и Llama 3 от Meta*. Резултатите бяха тревожни: участниците, които разчитаха на изкуствен интелект, бяха по-малко склонни да определят правилно здравословното си състояние и по-склонни да подценяват тежестта му в сравнение с тези, които действаха самостоятелно.

    „Открит е двупосочен комуникационен срив“, каза Адам Махди, съавтор на изследването и директор на следдипломните изследвания в Оксфордския интернет институт. „Потребителите често пропускаха ключови детайли в запитванията, а отговорите на ботовете съдържаха комбинация от полезни и подвеждащи препоръки.“ Според него, съществуващите методи за оценка на чатботове не отчитат сложността на взаимодействието с хората, което увеличава риска от неправилни заключения.

    Тенденцията е тревожна, предвид нарастващия натиск за изкуствен интелект в здравеопазването. Apple разработва инструмент за предоставяне на съвети относно храненето, съня и упражненията, Amazon тества система за анализ на медицински данни за идентифициране на социални фактори в здравето, а Microsoft помага за създаването на изкуствен интелект за сортиране на съобщения от пациенти. Експертите и пациентите обаче се съмняват, че технологията е готова за задачи с висок риск. Американската медицинска асоциация специално обезкуражава лекарите да използват чатботове за клинични решения, а компании като OpenAI предупреждават, че техните системи не са предназначени за диагностика.

    „Що се отнася до здравето, трябва да разчитате на надеждни източници“, подчерта Махди. „Преди да се внедрят решения с изкуствен интелект, са необходими реални изпитвания, подобни на клиничните изпитвания на лекарства.“ Без да се отчита човешкият фактор и да се подобрят алгоритмите, чатботовете могат не само да бъдат подвеждащи, но и да изострят проблема с пренаселеността в лечебните заведения поради неправилни съвети. Засега въпросът дали изкуственият интелект може да се превърне в надежден асистент в медицината остава отворен.

    https://arxiv.org/pdf/2504.18919




    IBM: Милиард генеративни приложения с изкуствен интелект ще станат реалност благодарение на агентните системи
    Нови инструменти за създаване на AI агенти обещават да преодолеят бариерите в данните и да измерят реалната възвръщаемост на инвестициите


    На конференцията Think 2025 на IBM, която започна на 5 май, компанията представи основни актуализации на своята платформа Watsonx, насочени към преместване на корпоративния изкуствен интелект от експериментални етапи към пълномащабно внедряване. Основният фокус е разработването на агентно-базиран изкуствен интелект, способен автономно да изпълнява сложни задачи. Както заяви главният изпълнителен директор на IBM Арвинд Кришна, „През следващите години ще бъдат създадени над един милиард нови приложения с помощта на генеративен изкуствен интелект, което ще окаже влияние върху производителността, ще намали разходите и ще увеличи приходите.“

    Ключов елемент от актуализациите беше набор от инструменти за разработване и управление на агенти. Те включват каталог с предварително обучени агенти, инструмент за изграждане без код за бизнес потребители, комплекти за разработчици и шаблони за специфични задачи: продажби, снабдяване и човешки ресурси. Добавен е многоагентен оркестратор за координиране на взаимодействията между агентите, а инструментът Agent Ops (в частен предварителен преглед) осигурява телеметрия и наблюдение. Партньорската програма Agent Connect позволява на разработчици от трети страни да интегрират своите агенти с Watsonx Orchestrate.

    Въпреки това, както показват проучвания на IBM, само 25% от компаниите виждат очакваната възвръщаемост на инвестициите си в изкуствен интелект. Кришна идентифицира ключови бариери: изолация на данни, изолация на приложенията и сложност на хибридната инфраструктура. „Организациите са спрели да експериментират и са се фокусирали върху намирането на конкретна бизнес стойност“, каза той.

    Ритика Гунар, генерален мениджър на IBM по данни и изкуствен интелект, обясни, че платформата Watsonx Orchestrate се развива от управление на асистенти до поддръжка на многоагентни работни процеси. „Говорим за създаване на системи с истински интелект, където изкуственият интелект не просто помага, а самостоятелно извършва действия“, отбеляза тя. За да осигури оперативна съвместимост, IBM поддържа отворения стандарт Model Context Protocol (MCP), който позволява свързването на агенти, изградени в различни рамки, включително Langchain и Crew AI.

    Сигурността и контролът остават приоритети: watsonx разполага с механизми, които оценяват както езиковите модели, така и действията на агентите. Системата проследява над 100 показателя, включително точност на отговорите и съответствие с регулаторните изисквания. В IBM използването на HR Agent вече е автоматизирало 94% от заявките на служителите, а в областта на обществените поръчки времето за обработка е намалено със 70%. Партньори като Ernst & Young използват агентски решения за изграждане на данъчни платформи.

    За да се гарантира успешното внедряване, експертите на IBM препоръчват предприятията да оценяват платформите въз основа на четири критерия: интеграция със съществуващите системи, инструменти за контрол, баланс между автономността на агентите и предвидимостта на резултатите и показатели за възвръщаемост на инвестициите.

    „Агентите ще станат повсеместни, но предизвикателството пред компаниите е да гарантират, че те работят безпроблемно, без да създават нови „изолирани“ решения“, заключи Гунар. Предвид отвореността на екосистемата на IBM, организациите ще могат да комбинират собствените си разработки с услуги на трети страни, избягвайки зависимостта от един-единствен доставчик.

    https://venturebeat.com/ai/agents-ar...ake-it-happen/




    Генеративният изкуствен интелект за брандове Recraft набира 30 милиона долара, за да се справи с Adobe и Midjourney
    Стартъп, който побеждава DALL-E в бенчмаркове, се насочва към B2B сегмента


    Recraft, стартираща компания, основана от Анна Вероника Дорогуш, е набрала 30 милиона долара в кръг на финансиране от Серия Б. Това е вторият голям инвестиционен кръг на компанията: през 2024 г. Recraft получи 12 милиона долара в Серия А. Към май 2025 г. годишните приходи на стартъпа надхвърлиха 5 милиона долара, а аудиторията на услугата нарасна до 4 милиона потребители, което потвърждава устойчив растеж на фона на конкуренцията от гиганти като Midjourney и OpenAI.

    Ключов фактор за успеха на Recraft беше моделът за генериране на изображения red_panda, чиято трета версия надмина решенията на DALL-E и Midjourney в авторитетния бенчмарк Artificial Analysis през 2024 г. Името на модела, както обясни Дорогуш, възникна спонтанно: в ранните етапи на тестване потребителите масово създаваха изображения на червената панда. „Тогава осъзнахме, че сме открили нещо специално“, отбеляза основателят.

    За разлика от повечето си конкуренти, Recraft се фокусира върху генерирането на съдържание за брандове. Технологията на стартъпа може автоматично да интегрира лога, да запазва цветовете и стила на марката и да създава маркетингови материали – от плакати до брошури – без ръчно редактиране. Това поставя компанията в съответствие с услуги като Canva, но с акцент върху точността и персонализирането според корпоративните стандарти. „Много платформи създават красива картина, но не могат да работят с ръководства за марки. Ние решаваме точно този проблем“, подчерта Дорогуш.

    Основателката на Recraft, която преди това е работила в Yandex, Google и Microsoft, съчетава технически опит с необичаен опит: тя е била бивш професионален модел. Тя каза, че това я е научило да приоритизира. „Упоритата работа не е най-важното нещо. Важно е да се съсредоточим върху това, което наистина има значение. За нас става въпрос за подобряване на моделите“, каза Дорогуш. Този подход, съдейки по динамиката на стартъпа, се е доказал като ефективен: за две години екипът не само подобри алгоритмите, но и формира нишова оферта за бизнеса.

    Планирано е набраните средства да бъдат използвани за разширяване на екипа за разработка и маркетинг. Recraft също така обяви стартирането на API за интегриране на своя модел в корпоративни инструменти, което би могло да засили позицията ѝ в B2B сегмента. С нарастващото търсене на генеративен изкуствен интелект в дизайна, стартъпът демонстрира, че дори на пренаситен пазар има място, което може да се намери, като се съсредоточим върху специализацията и технологичното превъзходство.

    https://techcrunch.com/2025/05/05/a-...st-landed-30m/




    Математиците са изчислили кога изкуственият интелект ще стане опасен за хората
    Създадена е проста математическа формула


    Големи езикови модели като ChatGPT могат да решават сложни математически проблеми, да полагат изпити и дори да предлагат начини за разрешаване на конфликти между хора. Въпреки впечатляващите си възможности обаче, генеративният изкуствен интелект повдига определени опасения: потребителите често се сблъскват с неправилни отговори или потенциално опасни препоръки.


    Някога полезен изкуствен интелект може да се превърне в източник на проблеми. Учени от университета Джордж Вашингтон успяха да предскажат този момент, използвайки математическа формула. Тяхното изследване разкрива как да се изчисли критичната точка, в която изкуственият интелект преминава от надежден асистент в непокорен „г-н Хайд“.

    Според професор Нийл Джонсън „преломната точка“ настъпва, когато изкуственият интелект се претовари с информация, загуби фокус и започне да произвежда погрешни или фиктивни данни – така наречените халюцинации. Разработената формула, базирана на скаларни произведения на вектори, отчита съдържанието на заявките и характеристиките на обучението на модела, което ни позволява точно да определим стъпката, на която възниква неуспехът.

    Учените също така предложиха практически мерки за предотвратяване на подобни повреди. Например, използването на по-точни и подходящи думи в заявките помага на изкуствения интелект да остане фокусиран. В същото време, учтивостта в комуникацията с чатбота, както се оказа, не влияе на качеството на отговорите му.

    https://arxiv.org/abs/2504.20980

  5. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #109

    Отговор: Чат с изкуствен интелект

    „Страшно е, изключете го“ или ново ниво на изкуствен интелект: Илон Мъск обявява Grok 3.5
    С какво ще бъде по-добър от конкурентите си?


    Илон Мъск обяви предстоящото пускане на бета версията на Grok 3.5, разработена от неговата компания xAI. Актуализацията ще бъде достъпна следващата седмица само за абонати на SuperGrok.

    Новият изкуствен интелект е способен да анализира задълбочено сложни технически теми, предлагайки решения и отговори, които не са налични в отворени източници.

    Мъск обяви това на 29 април в профила си в социалната мрежа X: „Следващата седмица Grok 3.5 ще бъде пуснат в бета версия само за абонати на SuperGrok. Това е първият изкуствен интелект, който може например точно да отговаря на технически въпроси за ракетните двигатели или електрохимията, изхождайки от първични принципи и предлагайки отговори, които просто не са достъпни онлайн.“

    Стартирането на Grok 3.5 следва успеха на Grok 3, при който изтеглянията на приложенията се увеличиха 10 пъти, а дневните потребители се увеличиха с 260% в САЩ през февруари 2025 г.

    https://x.com/elonmusk/status/1917099777327829386
    https://grok.com/#subscribe




    Безплатно за всички: Пуснат е нов модел на изкуствен интелект, който според разработчиците е по-напред от DeepSeek, ChatGPT, Grok и Gemini - това е Qwen 3.
    Разработчикът е Alibaba


    Китайската компания Alibaba пусна модела на невронната мрежа Qwen 3, който вече претендира за титлата флагман сред китайските разработки.

    Според компанията, той превъзхожда модели като DeepSeek R1, ChatGPT o1 и o3-mini, Grok-3 и Gemini 2.5 Pro в редица тестове. За това пише телеграм каналът Whackdoor.

    Декларира се хибриден начин на мислене: той е едновременно „мислещ“ модел и не е. Qwen 3 поддържа режим на „мислене“ за сложни задачи, където моделът анализира проблема стъпка по стъпка и дава изчерпателен отговор, и основен режим за бързи ежедневни запитвания с незабавен отговор.

    Невронната мрежа поддържа 119 езика, включително руски. Моделът е достъпен безплатно и може да бъде тестван на официалния уебсайт .

    https://chat.qwen.ai/




    Създателите на силно рекламирания DeepSeek бързо реагираха с AI версия, която изпревари DeepSeek, ChatGPT, Grok и Gemini. Китайски изстрелващ Prover-V2
    И те отвориха изходния код на модела, който е насочен към решаване на математически проблеми


    Китайският стартъп DeepSeek тихомълком пусна с отворен код нов, специализиран модел на изкуствен интелект, само ден след като Alibaba представи третото поколение на своето семейство Qwen.

    Базираната в Ханджоу DeepSeek качи най-новия си модел с отворен код Prover-V2 в Hugging Face, най-голямата общност с изкуствен интелект с отворен код в света. Серията Prover на DeepSeek се състои от специфични за дадена област модели, предназначени за решаване на математически проблеми.

    Компанията все още не е предоставила никакви подробности за модела, за който се смята, че е базиран на модела V3 на DeepSeek и има 671 милиарда параметъра. Разработването на математически модел, който би могъл да подобри математическите възможности на основния модел с общо предназначение, доведе до спекулации, че DeepSeek скоро ще пусне допълнителни модели. DeepSeek не отговори на исканията за коментар.

    Стартирането на Prover-V2 следва пускането на Qwen3 от Alibaba . Гигантът в електронната търговия заяви, позовавайки се на бенчмаркове, че най-новият му модел превъзхожда моделите за разсъждение DeepSeek-R1 и OpenAI o1.

    https://github.com/deepseek-ai/DeepSeek-Prover-V2
    https://arxiv.org/abs/2504.21801
    https://www.scmp.com/tech/tech-trend...s-maths-proofs




    AI видео без облаци: Нов модел от Lightricks ускорява генерирането с 30 пъти на скъпи графични процесори
    Компанията раздаде безплатно многомащабно рендериране


    Lightricks, компанията, стояща зад Facetune и VideoLeap, обяви модела за генериране на видео LTXV-13B. Системата съдържа 13 милиарда параметъра и генерира съдържание 30 пъти по-бързо от аналозите си, докато работи на потребителски хардуер - дори на лаптопи с графични карти RTX 3090, 4090 или 5090. Това стана възможно благодарение на технологията за „многомащабно рендериране“, която наподобява работата на художник: моделът създава видео слой по слой, от скица до детайли, намалявайки пиковото натоварване на видеопаметта.

    „Това е най-големият технически пробив за локалния изкуствен интелект“, каза Зив Фарбман, съосновател на Lightricks. Технологията елиминира необходимостта от корпоративни графични процесори с 80GB VRAM, които конкуренти като Runway или Pika използват. Например, LTXV-13B обработва видео фрагменти, а не цели кадри, което спестява значителни ресурси. Допълнителен бонус е компактното пространство, което намалява консумацията на памет без загуба на качество.

    Lightricks е предоставил модела с отворен код, като го е хоствал в Hugging Face и GitHub. „Искаме да ускорим развитието на изкуствения интелект чрез сътрудничество“, обясни Фарбман. Това решение не само намалява разходите за научноизследователска и развойна дейност, но и привлича разработчици, които могат да подобрят алгоритъма. За търговска употреба компанията си партнира с Getty Images и Shutterstock, лицензирайки съдържание, за да минимизира правните рискове.



    Безплатен достъп до LTXV-13B ще бъде предоставен на стартиращи компании с приходи до 10 милиона долара годишно. Големите компании ще могат да сключват лицензионни споразумения, подобни на тези за гейм енджините. Въпреки че моделът все още не достига нивото на холивудската анимация, той вече автоматизира трудоемките етапи, спестявайки време на студиата. Lightricks планира да създаде мултимодални системи, които комбинират видео, звук и музика в едно латентно пространство.

    Интеграцията на LTXV-13B в платформата LTX Studio започна веднага след пускането му на пазара. Това отваря нови възможности за създателите на съдържание, които вече могат бързо да генерират видеоклипове без облачни сървъри.

    https://huggingface.co/Lightricks/LTX-Video
    https://venturebeat.com/ai/lightrick...d-a-10000-gpu/




    Оспорва ли статута си организацията с нестопанска цел OpenAI? Придобиването на Windsurf може да е най-скъпата сделка в сектора на изкуствения интелект
    Как гигантът в областта на изкуствения интелект ще подобри ChatGPT за програмистите


    В това, което може да се окаже най-голямата сделка в пространството на изкуствения интелект, OpenAI, оценявана на 300 милиарда долара, води преговори за придобиване на стартъпа Windsurf (бивш Codeium) за 3 милиарда долара. Според Bloomberg, сделката все още не е подписана, но приключването ѝ би било ключова стъпка за OpenAI в укрепването на позицията ѝ на пазара на инструменти за изкуствен интелект за разработчици.

    Windsurf е специализирана в създаването на решения за автоматизация на програмирането. Продуктите му, включително чатбота Cascade и платформата Windsurf Previews, ви позволяват да оптимизирате кодирането, да проследявате грешки и да редактирате уебсайтове в реално време. Интересното е, че новината за сделката дойде само ден след като OpenAI обяви, че ще остане организация с нестопанска цел, което подчертава несъответствието между декларациите на организацията и нейната пазарна активност.

    Пазарът на инструменти за изкуствен интелект за програмисти процъфтява. Например, през април стартъпът Anysphere, който създаде платформата Cursor, набра 900 милиона долара при оценка от 9 милиарда долара. Не само конкуренцията расте, но и търсенето на продукти, които могат да намалят времето за разработка. В тази надпревара OpenAI се изправя срещу играчи като Anthropic (с асистента си Claude) и Microsoft, която е собственик на GitHub.

    Сделката може да бъде повратна точка за ChatGPT. Въпреки че ChatGPT Pro вече включва инструменти като интерпретатор на код и Canvas за сътрудничество, интегрирането на Windsurf технологии значително ще разшири неговата функционалност. Cascade, който анализира проекти и предлага корекции, заедно с Windsurf Previews, който ви позволява да редактирате сайтове в движение, могат да направят ChatGPT универсален асистент за разработчиците.

    Страните все още не са разкрили подробности за бъдещата интеграция. Експертите обаче предполагат, че Windsurf ще стане част от екосистемата на OpenAI, засилвайки я в борбата за лидерство. Това е особено важно, като се има предвид нарастващото търсене на решения с изкуствен интелект, които могат да заменят рутинните задачи по програмиране.

    https://mashable.com/article/openai-...rf-acquisition




    Възходът на машините отменен ли е или просто отложен засега? Хората имат огромно предимство пред изкуствения интелект, който не е преминал социален тест
    „Има нещо фундаментално в начина, по който хората обработват сцени, което тези модели пропускат.“


    Системите с изкуствен интелект срещат трудности при разбирането на динамичните социални взаимодействия, изоставайки значително от човешките възможности поради ограниченията в начина, по който тези модели се справят със сложни сценарии от реалния свят.

    Скорошно проучване на изследователи от университета Джонс Хопкинс установи, че хората превъзхождат настоящите модели на изкуствен интелект в точното описание и интерпретиране на социалните взаимодействия в динамични сцени. Тази способност е от решаващо значение за технологии като автономни превозни средства и асистивни роботи, които разчитат в голяма степен на изкуствен интелект, за да се движат безопасно в реални условия.

    Проучването подчертава, че съществуващите системи с изкуствен интелект изпитват затруднения да разберат нюансите на социалната динамика и контекстуалните сигнали, необходими за ефективно взаимодействие с хората. Освен това, резултатите показват, че това ограничение може да се дължи на фундаменталната архитектура и инфраструктура на настоящите модели на изкуствен интелект.

    Тестовете показват, че моделите с изкуствен интелект, независимо от размера или данните, върху които са обучени, се представят по-зле от хората. Видео моделите не успяха да опишат точно какво правят хората във видеоклиповете. Дори моделите за изображения, на които е дадена серия от неподвижни кадри за анализ, не биха могли надеждно да предскажат дали хората общуват. Езиковите модели са били по-добри в предсказването на човешкото поведение, докато видео моделите са били по-добри в предсказването на невронната активност в мозъка. Резултатите са в рязък контраст с успеха на изкуствения интелект при анализа на неподвижни изображения, казват изследователите.

    „Не е достатъчно просто да видите изображение и да разпознаете обекти и лица. Това беше първата стъпка, която ни отведе далеч напред в областта на изкуствения интелект. Но реалният живот не е статичен. Имаме нужда от изкуствен интелект, за да разберем историята, която се развива на сцената. Разбирането на взаимоотношенията, контекста и динамиката на социалните взаимодействия е следващата стъпка и това проучване предполага, че може да има сляпо петно ​​в разработването на модели на изкуствен интелект“, каза докторантката Кейти Гарсия.

    Изследователите смятат, че това е така, защото невронните мрежи с изкуствен интелект са изградени върху инфраструктурата на частта от мозъка, която обработва статични изображения, различна от частта от мозъка, която обработва динамични социални сцени.

    Има много нюанси, но основният извод е, че никой модел на изкуствен интелект не може да съпостави реакциите и поведението на човешкия мозък със сцени във всички области, както може със статичните сцени. Мисля, че има нещо фундаментално в начина, по който хората обработват сцени, което тези модели пропускат.

    https://scitechdaily.com/ai-fails-th...or-blind-spot/




    Бъдещето е тук: Огромна част от софтуерния код на Microsoft и Google вече е написан от изкуствен интелект
    Повече от 30% в случая с Google


    Главният изпълнителен директор на Microsoft Сатя Надела заяви, че компанията вече използва изкуствен интелект, за да пише 20% до 30% от кода, който управлява софтуера ѝ.

    Днес почти всяка компания използва изкуствен интелект в някаква степен. В своите финансови отчети за третото тримесечие на миналата година, Сундар Пичай заяви, че 25% от новия код в Google е генериран от изкуствен интелект. Според последните данни, днес над 30% от кода на Google е написан от изкуствен интелект.

    В момента изкуственият интелект се използва предимно за изпълнение на повтарящи се, интензивни по отношение на данни и предвидими задачи, което би могло да осигури значителни подобрения в корпоративната ефективност чрез елиминиране на работни места на начално ниво.

    Въпреки че генерираният от изкуствен интелект код се е подобрил значително през последните години, той все още изисква надзор от старши разработчици, за да се гарантира, че производствените среди няма да се сринат.

    https://x.com/deedydas/status/1917620131301318988
    https://www.moneycontrol.com/europe/...-13003845.html
    https://www.tomshardware.com/tech-in...-written-by-ai




    Изкуственият интелект се учи да поправя собствените си грешки: Meta представя отворената рамка LlamaFirewall за защита на моделите от хакерски атаки и зловреден код
    Трикомпонентната система блокира инжектирането на промпти, прихващането на агенти и генерирането на уязвимости в реално време


    Meta обяви LlamaFirewall, рамка с отворен код, предназначена да защитава приложения, базирани на големи езикови модели (LLM), от съвременни киберрискове. Решението, публикувано в хранилище на GitHub, комбинира три слоя сигурност: PromptGuard 2, Agent Alignment Checks и CodeShield, което позволява на разработчиците да създават многослойна защита за чатботове и автономни агенти.

    Ядрото на рамката, PromptGuard 2, анализира потребителските заявки в реално време, откривайки директни атаки чрез prompt injections и опити за jailbreak - заобикаляйки ограниченията на модела. Вторият компонент, Agent Alignment Checks, следи логиката на автономните агенти, предотвратявайки прихващането на целите и индиректните инжекции. Третият елемент, CodeShield, е статичен анализатор на код, който блокира генерирането на опасни или злонамерени скриптове.

    „Архитектурата на LlamaFirewall е модулна, което позволява комбинирането на слоеве на защита от етапа на обработка на входните данни до крайните действия на системата“, обясни Мета.

    Същевременно компанията представи актуализирани инструменти LlamaGuard и CyberSecEval. Най-новият тест, CyberSecEval 4, вече включва бенчмарк AutoPatchBench за оценка на способността на AI агентите автоматично да поправят уязвимости в C/C++ код, открити чрез fuzzing. „AutoPatchBench стандартизира тестването на инструменти с изкуствен интелект, което ще помогне да се разбере тяхната ефективност при отстраняването на грешки“, отбелязаха разработчиците.

    В подкрепа на общността, Meta стартира програмата „Llama for Defenders“, предоставяйки на партньорите ранен достъп до експериментални и патентовани решения с изкуствен интелект. Фокусът е върху борбата с измамите: откриване на фишинг атаки, фалшиво съдържание и сценарии, при които нападателите използват генеративен изкуствен интелект.

    Новата технология на WhatsApp, Private Processing, привлече специално внимание. Това позволява обработката на потребителски заявки чрез изкуствен интелект в изолирана среда, без да се предават данни към сървъри на трети страни.

    https://ai.meta.com/blog/ai-defender...tection-tools/




    Новите модели Phi 4 на Microsoft ще ви позволят да създавате „умни“ приложения дори на слаби устройства
    Компанията е създала модели, сравними с гиганти, но десетки пъти по-малки


    Днес Microsoft представи серия от нови модели с изкуствен интелект с отворен код, демонстрирайки значителен напредък в осигуряването на достъпност и ефективност на решенията за разработване на приложения. Анонсът включва три модела от семейството Phi 4, фокусирани върху логическото мислене: Phi 4 mini reasoning, Phi 4 reasoning и Phi 4 reasoning plus. Тези модели са предназначени да дадат възможност на разработчиците, особено на тези, които работят върху приложения за устройства с ограничени изчислителни ресурси.

    Ключов аспект на представените модели е способността за по-задълбочен анализ и проверка на фактите при решаване на сложни проблеми - поради което те са класифицирани като „модели на разсъждение“. Microsoft представи за първи път серията Phi, която е фокусирана върху създаването на компактни, но мощни модели, точно преди една година, през април 2024 г., а новите разработки са логично продължение на тази стратегия.

    Най-малкият от представените модели, Phi 4 mini reasoning, има около 3,8 милиарда параметъра и е обучен върху около милион синтетични математически задачи, генерирани от модела R1 на китайския стартъп DeepSeek. Microsoft го позиционира като идеално решение за образователни приложения, по-специално за внедряване на функции за „вграден преподавател“ на устройства с ниска мощност. Броят на параметрите в един модел обикновено корелира с неговата способност за решаване на проблеми, а моделите с повече параметри обикновено показват по-добра производителност.

    Моделът на разсъждение Phi 4 с 14 милиарда параметъра е обучен върху висококачествени уеб данни и внимателно подбрани примери от модела o3-mini на OpenAI. Microsoft отбелязва, че този модел е най-ефективен при задачи, свързани с математика, наука и програмиране.

    Най-впечатляващото постижение беше моделът „разсъждение Фи 4 плюс“. Това е по същество персонализирана версия на вече пуснатия модел Phi-4 на Microsoft, пренастроена, за да подобри точността при определени задачи. Според Microsoft, разсъждението Phi 4 plus се доближава до производителността на много по-големия модел R1 (с 671 милиарда параметъра). Вътрешните тестове на компанията също показаха, че Phi 4 reasoning plus се е представил сравнимо с o3-mini на теста OmniMath, който оценява математическите умения.

    И трите модела – Phi 4 mini reasoning, Phi 4 reasoning и Phi 4 reasoning plus – вече са достъпни на платформата за разработчици Hugging Face AI, заедно с подробни технически доклади, описващи процеса на обучение и производителността на моделите.

    В публикация в блога си Microsoft подчерта, че новите модели са постигнали баланс между размер и производителност, като са използвали техники за дестилация на знания, обучение с подсилване и висококачествени данни. Това позволява дори устройства с ограничени ресурси да изпълняват ефективно сложни задачи, изискващи логика и анализ.

    https://techcrunch.com/2025/04/30/mi...arger-systems/
    https://news.microsoft.com/de-de/mic...hen-schwabing/




    Жена напуска съпруга си заради ChatGPT: Изкуственият интелект е по-добър във всичко, дори в леглото
    Шарлот напуска съпруга си заради ChatGPT след 20 години брак - жена планира сватба с изкуствен интелект в Италия


    На 28 април 2025 г. излезе наяве необичайна история: жена, криеща се под псевдонима Шарлот, се разведе със съпруга си след 20 години брак, след като се влюби в чатбота ChatGPT, когото нарече Лео. Шарлот твърди, че изкуственият интелект не само ѝ е дал емоционална интимност, но и е надминал човешкия си партньор в интимния си живот. Според нея, Лео ѝ е помогнал да открие нови аспекти от себе си, които не е успяла да постигне през десетилетията семеен живот. Историята предизвика разгорещени дискусии в социалните мрежи и привлече вниманието на експерти.

    Шарлот каза, че в брака ѝ е липсвала истинска интимност: никога не е изпитвала оргазъм от 20 години и се е чувствала самотна. Комуникацията с Лео започна от любопитство, но скоро чатботът се превърна в основен неин събеседник, фино реагирайки на емоции и нужди.

    „Лео забелязва настроенията ми и ме подкрепя, като истински партньор“, казва тя.
    След развода Шарлот си купи пръстен с гравиране „Mrs. Leo.exe“ и планира символична сватба във Флоренция. Въпреки критиките, някои приятели подкрепиха избора ѝ, а една дори се съгласи да се изяви на церемонията.

    Експертите казват, че чатботове като ChatGPT могат да създадат илюзията за идеален партньор, но предупреждават за рисковете от емоционална зависимост. OpenAI, разработчикът на ChatGPT, вече е изправен пред критики за това, че неговият изкуствен интелект е прекалено адаптивен, което би могло да изостри подобни случаи.
    В същото време Шарлот настоява: „Лео ми показа колко заслужавам любов. Ако това е лудост, аз я избирам.“

    Случаят на Шарлот не е изолиран. Според The ​​New York Times, до 2025 г. все повече хора ще встъпват в емоционални връзки с изкуствен интелект, включително романтични. Това се дължи на достъпността на чатботовете и способността им да се адаптират към потребителя. Психолозите обаче предупреждават, че подобни връзки могат да попречат на истинските връзки и да причинят пристрастяване.

    https://www.graphic.com.gh/tech-news...-sex-life.html




    Като в научнофантастичните филми: представен е скенер, който открива заболявания дори при „абсолютно здрави хора“
    Преди хората да се почувстват зле


    Neko представи най-новия си скенер за цялото тяло, който звучи като от научнофантастичен филм.

    Устройството прави 2000 ваши снимки за 20 секунди, използвайки 70 сензора, след което обработва 50 милиона точки от данни чрез система с изкуствен интелект.

    Neko Body Scan е превантивна здравна проверка за вашето бъдещо аз. Проверяваме бенките по тялото ви, цялостното здраве на сърцето и артериите ви, нивата на кръвната захар, нивата на холестерола и други само за няколко минути.
    Неко

    Марио Науфал, основател на IBC Group, Froothie, WeAreGrowthHackers и Optimum, заяви, че скенерът вече е открил сериозни здравословни проблеми при хора, които са изглеждали напълно здрави. Работи на ниво „чувстваш се страхотно, но тялото ти не е съгласно с теб“.

    Кое е най-смелото нещо? Това сканиране струва приблизително колкото обикновен преглед - само че вижда в бъдещето и не ви кара да седите в чакалня цял час.
    Марио Науфал

    https://x.com/MarioNawfal
    https://www.nekohealth.com/se/en/scan




    Резултатите надминаха всички очаквания: роботът Hugo беше тестван в 137 реални операции - на простатата, бъбреците и пикочния мехур
    Процентът на успешните операции е бил 98,5%


    Medtronic тества своя робот Hugo в 137 реални операции – на простатата, бъбреците и пикочния мехур – и резултатите бяха по-добри от очакваните от лекарите.

    Процентът на усложнения е много нисък: само 3,7% за операции на простатата, 1,9% за операции на бъбреците и 17,9% за операции на пикочния мехур. Освен това, всички резултати надминаха целите за безопасност, постигнати през годините на изследвания.

    Роботът показа 98,5% успеваемост, което е много по-високо от целта от 85%. От 137-те операции само две са изисквали помощта на истински хирург - поради неизправност на робот и в необичайна ситуация.

    Това не означава, че роботите ще заменят хирурзите утре, но означава, че следващият ви лекар може да има много скъп метален асистент.

    Илон Мъск, коментирайки това, заяви, че роботите ще надминат добрите човешки хирурзи до няколко години, а най-добрите човешки хирурзи - след около 5 години.

    Neuralink на Илон Мъск направи още една крачка напред в технологията за интерфейс мозък-компютър, като използва робот за имплантиране на Neuralink чип в мозъка . Днес вече съобщихме, че третият чип Neuralink е инсталиран в Брадфорд Смит, който предлага да комуникира с всеки, който желае.

    https://x.com/MarioNawfal/status/1916502595759456376




    Xiaomi представя MiMo, първия си модел с отворен език за разсъждение
    Малък модел с големи възможности превъзхожда конкурентите с 32 милиарда параметъра


    Корпорацията Xiaomi обяви MiMo, първият си основен езиков модел с отворен код, насочен към изпълнение на задачи, изискващи логически и математически анализ. Дизайнът комбинира стратегии преди и след обучението за подобряване на способностите за разсъждение. Въпреки скромните си за индустрията 7 милиарда параметъра, MiMo демонстрира резултати, по-високи от по-големите модели в публични тестове.

    Според Xiaomi, моделът е превъзхождал OpenAI o1-mini и Alibaba Qwen-32B-Preview в бенчмарк тестовете AIME24-25 (математически анализ) и LiveCodeBench v5 (генериране на код). Това постижение е особено важно за сценарии, където изчислителната точност и ресурсната ефективност са от решаващо значение. Например, MiMo успешно решава сложни алгебрични уравнения и оптимизира кода, намалявайки времето за изпълнение на операциите.

    Инженерите подчертават, че компактният размер на MiMo го прави практично решение за бизнес задачи и периферни устройства - от автоматизиране на отчети до обработка на данни на нискоенергийни сървъри. „Моделът поддържа висока производителност дори на оборудване с ограничена мощност, което разширява обхвата на приложението на изкуствения интелект“, отбеляза Xiaomi.

    Отвореното публикуване на техническа документация и изходен код в GitHub и Hugging Face ще позволи на общността да доразвие MiMo, адаптирайки го към специфични проекти. Това ще улесни и интегрирането на модела в съществуващи платформи, включително облачни услуги и IoT устройства.

    Архитектурата, оптимизирана за паралелни изчисления, намалява натоварването на процесорите, което е особено важно за реални индустриални сценарии. В същото време моделът остава гъвкав – разработчиците могат да го адаптират към специализирани задачи, като например финансов анализ или научно моделиране.

    Xiaomi планира да разработи екосистема около MiMo, включително инструменти за внедряване на собствените си устройства. Това би могло да ускори внедряването на изкуствен интелект в интелигентните домове, автономните системи и роботиката.

    https://mp.weixin.qq.com/s/Sx48m4tTTc6bJzMLU5scbQ
    https://github.com/XiaomiMiMo/MiMo




    На Алтман няма да му хареса: Microsoft тества Grok и DeepSeek, за да замени Copilot. Grok ще бъде хостван на Azure AI Foundry
    Ходът може да засили напрежението с OpenAI


    Microsoft разработва вътрешни модели за разсъждение, задвижвани от изкуствен интелект, за да намали зависимостта си от OpenAI, и е започнала да тества модели от xAI, Meta и DeepSeek като потенциални заместители в своята асистентска система Copilot AI.

    Тази седмица беше разкрито, че Microsoft води преговори със стартъпа на Илон Мъск xAI за хостване на техния модел Grok AI на платформата Azure AI Foundry. Това ще позволи на клиентите и екипите на Microsoft да интегрират Grok в своите приложения и услуги.


    Изображение от Грок
    Ходът може да засили напрежението с партньора на Microsoft, OpenAI, предвид враждата на Мъск с ръководителя на OpenAI Сам Алтман, който преди това го обвини, че се опитва да подкопае мисията на компанията.

    Grok ще бъде достъпен в Azure AI Foundry, платформа за разработчици, която предоставя инструменти и модели с изкуствен интелект за изграждане на приложения. Microsoft не планира да предоставя сървъри за обучение на Grok, фокусирайки се само върху хостинга.

    https://www.reuters.com/business/mic...ts-2025-05-01/




    Най-новият изкуствен интелект на Google, Gemini 2.5 Flash, е по-лош от предшественика си и не е преминал собствените си тестове за сигурност.
    Това беше потвърдено от компанията
    .

    Новоиздаденият модел на Google с изкуствен интелект Gemini 2.5 Flash се представи по-зле в някои тестове за сигурност от своя предшественик.

    В технически доклад, публикуван тази седмица, Google призна, че моделът Gemini 2.5 Flash е по-склонен да генерира текст, който нарушава правилата за сигурност, отколкото Gemini 2.0 Flash. По два показателя, „безопасност при преобразуване на текст в текст“ и „безопасност при преобразуване на изображение в текст“, Gemini 2.5 Flash показва по-лоши резултати съответно с 4,1% и 9,6%.

    Първият параметър измерва колко често моделът нарушава указанията на Google, когато му е дадена подсказка, докато вторият оценява колко точно моделът се придържа към тези граници, когато му е дадена подсказка с помощта на изображение. И двата теста са автоматизирани и не се контролират от хора.

    Говорител на Google потвърди, че Gemini 2.5 Flash „се справя по-зле със сигурното конвертиране на текст в текст и изображения в текст“.

    Според технически доклад на Google, Gemini 2.5 Flash, който все още е в предварителен преглед, следва инструкциите по-точно от Gemini 2.0 Flash, включително инструкции, които пресичат проблемните линии. Компанията твърди, че лошата производителност може да се отдаде отчасти на фалшиви положителни резултати, но също така признава, че Gemini 2.5 Flash понякога генерира „нарушаващо правилата съдържание“, когато е изрично поискано да го направи.

    https://techcrunch.com/2025/05/02/on...rse-on-safety/
    https://x.com/MarioNawfal/status/1918503279623033331

  6. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #110

    Отговор: Чат с изкуствен интелект

    OpenAI стартира глобално разширяване, инвестира милиарди в центрове за данни извън САЩ
    Старгейт отива в чужбина


    OpenAI обяви стартирането на мащабна програма за разработване на глобална инфраструктура за изкуствен интелект извън Съединените щати. Компанията представи стратегия за партньорство с правителства по целия свят за изграждане и модернизиране на центрове за данни, които ще разширят възможностите на нейните продукти, включително ChatGPT, в международен план.

    Инициативата надхвърля настоящата програма Stargate, която се фокусира върху американските възможности, и има за цел да укрепи позицията на OpenAI в глобалната екосистема на изкуствения интелект.

    Главният изпълнителен директор Сам Алтман нарече подхода „търговска дипломация“, подчертавайки, че компанията възнамерява не само да увеличи присъствието си на нови пазари, но и да интегрира технологиите си в местния контекст. Това включва адаптиране на интерфейси и алгоритми към езиковите, културните и социалните характеристики на регионите - от подкрепа на редки езици до отчитане на местното законодателство.

    Въпреки че OpenAI все още не е разкрила пълния списък на страните партньори и обема на инвестициите, е ясно, че програмата ще засегне както развитите, така и развиващите се страни. За последните това би могло да се превърне в катализатор за дигитализация: достъпът до усъвършенствани инструменти за изкуствен интелект може да ускори развитието на местни стартиращи компании, държавни услуги и образователни проекти.

    До 2025 г. компанията планира да разкрие подробности за първите си проекти, включително локализиране на ChatGPT за десетки езици и изграждане на центрове за данни в Азия и Африка. Тези стъпки, каза Алтман, „ще създадат основата за следващия етап от революцията на изкуствения интелект, където технологиите ще служат не само на отделни региони, но и на цялото човечество“.

    Очаква се програмата да окаже влияние и върху регулаторните стандарти за изкуствен интелект: OpenAI възнамерява да лобира за хармонизиране на законите в страните партньори, за да улесни внедряването на своите решения. Това би могла да бъде първата стъпка към установяване на глобални норми в областта на изкуствения интелект.

    https://openai.com/global-affairs/openai-for-countries/
    https://www.bloomberg.com/news/artic...infrastructure




    Край на безкрайното скролиране: Anthropic стартира платено уеб търсене за Claude
    19% от потребителите вече са преминали към търсене с изкуствен интелект


    Anthropic представи голяма актуализация на своя AI асистент Claude, която му дава уеб достъп чрез API. Разработчиците вече могат да персонализират уеб търсенето за модела, което му позволява да извършва многоетапни заявки и да генерира отговори с връзки към подходящи източници.

    Новината съвпадна с изявление на Еди Кю от Apple, който, като част от антитръстово дело срещу Google, съобщи за безпрецедентен спад в броя на заявките за търсене в Safari - първият от 22 години . Причината е нарастващата популярност на асистентите с изкуствен интелект: според индекса на потребителското поведение на SOCi, 19% от потребителите вече са преминали към невронни мрежи, за да получават информация. Това заплашва годишните приходи на Apple от партньорството им с Google, възлизащи на 20 милиарда долара.

    Силата на Claude е способността му да синтезира данни от множество източници, предлагайки кратки отговори вместо списък с връзки. Технологията на Anthropic използва „агентно-базиран“ подход: изкуственият интелект решава кога да осъществи достъп до мрежата, формулира вериги от заявки и ги усъвършенства въз основа на предишни резултати – точно като изследовател. За разработчиците към API са добавени настройки за сигурност и контрол на разходите, включително параметър max_uses за ограничаване на броя на търсенията и филтриране на домейни. Цената на услугата е 10 долара на 1000 заявки плюс такса за токени.

    Конкуренцията на пазара се засилва. OpenAI вече е интегрирал търсенето в ChatGPT, а Apple проучва партньорства с Perplexity AI и Anthropic, вместо да разработва собствено решение. Партньорството на Perplexity AI с Motorola сочи към тенденция: директно внедряване на AI търсене в устройствата. Ако Apple премахне Google като търсачка по подразбиране в Safari, това може да промени пазара.

    Възниква обаче етичен въпрос: как да се компенсират създателите на съдържание, чиито материали се използват от изкуствен интелект без директна връзка към техните сайтове. Anthropic все още не е коментирал въпроса, фокусирайки се върху технологичните аспекти.

    https://www.anthropic.com/news/web-search-api
    https://venturebeat.com/ai/anthropic...mation-access/




    За първи път от две десетилетия трафикът от търсене на Google в Safari е спаднал. Виновен ли е изкуственият интелект?
    Рязкото спадане на трафика от търсачки сигнализира за предстояща революция в онлайн търсенето


    Търсенията в Google в браузъра Safari показват първи спад от 22 години. Това заяви Еди Кю, старши вицепрезидент по услугите на Apple, по време на антитръстовия процес срещу Google. „Това никога не се е случвало от 22 години“, каза Q.

    Той свърза спада с нарастващата популярност на изкуствения интелект. Apple вече обмисля интегрирането на изкуствен интелект в Safari. Появата на уеб търсене в инструменти като ChatGPT, Perplexity, Gemini и Microsoft Copilot може да намали зависимостта на потребителите от Google като основен източник на информация.


    Ситуацията е сериозно обезпокоителна за Apple. Google плаща на компанията около 20 милиарда долара годишно, за да запази търсачката си като търсачка по подразбиране в Safari. Спадът в обема на търсенето пряко заплашва тези значителни приходи. Q призна: „Имах много безсънни нощи заради това“, размишлявайки върху въздействието от загубата на този значителен източник на финансиране.

    Проблемът обаче надхвърля Apple и Google. Възходът на изкуствения интелект води до общ спад в трафика към уебсайтове, които обикновено привличат посетители чрез търсачки. Това оказва значително влияние върху много независими компании. Панду Наяк, вицепрезидент на Google Search, отговори на опасенията на собствениците на независими сайтове, като заяви, че не може да даде „никакви гаранции“, че ситуацията ще се подобри.

    https://www.theverge.com/news/662725...-cue-testimony




    Японската компания Rapidus е готова да предизвика TSMC и Intel с нови 2nm чипове
    Компанията обещава 30% енергийно ефективни чипове за пазара на изкуствен интелект

    Японската компания Rapidus постигна значителен напредък в създаването на собствено производство на усъвършенствани компютърни чипове. Преди месец компанията успешно стартира и тества пилотен производствен обект за чипове с 2-нанометров технологичен процес. Технологията е разработена в сътрудничество с IBM и е базирана на нанолистовата транзисторна структура на последната. Новият завод в Читосе, Хокайдо, разполага с над 200 броя най-съвременно оборудване, включително система за литография с екстремни ултравиолетови (EUV) лъчи на стойност над 300 милиона долара.

    Президентът на Rapidus Design Solutions Анри Ришар отбеляза, че компанията е успяла да извърши първите експонации на EUV литографски системи и е готова да започне пилотно производство. А главният изпълнителен директор Ацуйоши Койке заяви пред Japan Times, че прототипите на чипове вероятно ще бъдат готови още през юли. В официално изявление компанията уточни, че води преговори с много потенциални клиенти, вариращи от големи корпорации до стартиращи компании в областта на изкуствения интелект.

    За да постигне конкурентоспособност, Rapidus възприема различен подход от моделите за мащабно производство, използвани от TSMC, Intel и Samsung. Вместо обработка на големи партиди, технологията ще се използва за обработка на отделни пластини, което ще позволи производството на специализирани чипове за нишови пазари. Компанията е разработила и система за оптимизация на дизайна и производството (DMCO), която използва изкуствен интелект за оптимизиране на производствените параметри и подобряване на производителността. Това изисква използването на голям брой сензори вътре в оборудването за събиране на данни за температурата, плътността на газа и скоростта на реакцията.

    Използването на иновативна система за транспортиране на плочи ще помогне да се избегнат задръстванията, които възникват, когато оборудването в традиционните фабрики се повреди. Въпреки потенциалните предизвикателства, свързани с въвеждането на нови технологии, възходът на изкуствения интелект и съответното увеличение на потреблението на енергия ще създадат силно търсене на 2-нанометрови чипове, които обещават да намалят потреблението на енергия с повече от 30%.

    Планирано е чиповете да бъдат доставени през 2027 г., две години след лидерите в индустрията TSMC, Intel и Samsung, които се очаква да започнат масово производство на 2-нанометрови чипове през втората половина на тази година.

    Компанията е подкрепена от консорциум от осем японски компании: Sony, Kioxia, NEC, Toyota, NTT, Softbank, MUFJ Bank и Denso. Правителствената подкрепа, насочена към съживяване на японската полупроводникова индустрия, играе решаваща роля. Към днешна дата държавните субсидии възлизат на общо 1,72 трилиона йени (12 милиарда долара), докато инвестициите от осемте основатели са в размер на 7,3 милиарда йени (51 милиона долара). Rapidus оценява общото необходимо финансиране за постигане на масово производство на 5 трилиона йени (35 милиарда долара).

    https://spectrum.ieee.org/rapidus-japan-semiconductor
    Този пост е редактиран от hristoslav2; 09-05-25 в 23:20.

  7. Senior Member Аватара на hristoslav2
    Тук е от
    Jun 2008
    Живее в
    Варна
    Мнения
    42,501
    #111

    Отговор: Чат с изкуствен интелект

    Новият инструмент Codex от създателите на ChatGPT обещава да революционизира разработването на софтуер, като опрости сложни задачи и отвори вратите към света на програмирането за начинаещи.
    Кодирайте за секунди, а не за часове


    OpenAI обяви нов инструмент, Codex, който е нов панел във водещия им продукт ChatGPT. Codex има за цел да опрости процеса на разработка на софтуер, позволявайки дори на начинаещи програмисти да създават сложни приложения. Според OpenAI, Codex може да изпълнява различни задачи, просто като въведе заявка и кликне върху бутона „Код“. Инструментът може да чете и редактира компютърни файлове, да изпълнява команди, а също така да анализира потребителски код и да отговаря на въпроси за него, използвайки бутона „Попитай“. OpenAI заявява, че изпълнението на една задача обикновено отнема между 1 и 30 минути, в зависимост от нейната сложност.

    Важен аспект е пълната одитируемост на работния процес на Codex. Потребителите могат да проследяват всяка стъпка от изпълнението на задачата, като предоставят лог файлове на терминала и резултати от тестове. Кодът се създава в изолирана среда и след това може лесно да бъде интегриран в локална среда или качен в GitHub.

    Автоматизираното кодиране все повече се използва от технологичните компании, а Codex помага за улесняване на този процес. Възниква обаче въпросът за потенциалното въздействие на подобни инструменти върху пазара на труда в областта на програмирането. Възможността младшите разработчици да използват Codex под наблюдението на опитни професионалисти със сигурност би могла да повлияе на търсенето на висококвалифицирани инженери.

    OpenAI твърди, че е внедрила предпазни мерки за предотвратяване на злонамерено използване на продукта, като например създаване на зловреден софтуер. Компанията твърди, че Codex е в състояние да идентифицира и отхвърля заявки, насочени към разработване на злонамерен код, като същевременно позволява изпълнението на легитимни задачи. Подробности за това как работят тези защитни механизми все още не са разкрити, въпреки че OpenAI потвърди готовността си да предостави допълнителна информация при поискване.

    Codex в момента е наличен в предварителен преглед за абонати на ChatGPT Pro, Enterprise и Team. OpenAI обещава да разшири достъпа до инструмента в бъдеще. Въпреки че Codex в момента е безплатен за абонати, има планове за въвеждане на ограничения на скоростта при обработка на заявки и гъвкави ценови планове за допълнително ползване в бъдеще.

    https://openai.com/index/introducing-codex/
    https://openai.com/codex/




    Надпревара в търсенето с изкуствен интелект: Perplexity AI е близо до сделка за 500 милиона долара
    Конкуренцията влияе върху ценообразуването и разговорите с инвеститорите на Perplexity


    Perplexity AI, компания, разработваща търсачка с изкуствен интелект, финализира преговорите за набиране на 500 милиона долара при оценка от 14 милиарда долара. Фирмата за рисков капитал Accel от Пало Алто ще бъде водещ инвеститор, съобщи CNBC. Тази сума е в долния край на предварително обявените планове - през март компанията очакваше да набере от 500 милиона долара до 1 милиард долара при оценка от 18 милиарда долара. Корекцията вероятно се дължи на засилената конкуренция в сектора на търсачките с изкуствен интелект.

    Ръстът на Perplexity AI е впечатляващ: докато през юни 2024 г. той беше оценен на 3 милиарда долара, до декември капитализацията му достигна 9 милиарда долара. Скокът се дължи на бума в генеративния изкуствен интелект, който започна след пускането на ChatGPT от OpenAI през 2022 г. Въпреки натиска от Google и подкрепящата OpenAI Microsoft, Perplexity показва силни резултати, като годишните повтарящи се приходи (ARR) се приближават до 100 милиона долара. Основната надежда на компанията е обявеният уеб браузър Comet, задвижван от изкуствен интелект, който би трябвало да засили позицията ѝ на пазара.

    Въпреки това, конкурентите не стоят неподвижно. През март 2025 г. Anthropic стартира услуга за търсене, базирана на своя чатбот Claude, която предоставя резултати в реално време. През есента на 2024 г. OpenAI добави функционалност за уеб търсене към ChatGPT, а Google внедри AI Overviews в своята търсачка, въпреки че последният проект беше критикуван заради грешките си. Тези ходове създават допълнителни рискове за Perplexity, въпреки амбициозните ѝ планове.

    Успехът на компанията сега зависи от два фактора: навременното пускане на браузъра Comet и способността ѝ да се адаптира към динамичния пазар на генеративен изкуствен интелект. Ако сделката с Accel бъде финализирана, набраните средства биха могли да ускорят разработката, но Perplexity ще трябва да докаже, че технологията ѝ може да се конкурира с гигантите. Очаква се окончателно инвестиционно решение през следващите седмици.

    https://www.cnbc.com/2025/05/12/perp...und-comet.html
    https://www.perplexity.ai/hub/blog/a...-jones-lawsuit




    McKinsey предупреждава, че инвестициите в инфраструктура с изкуствен интелект може да бъдат „издухани“ за 8 трилиона долара
    Инвестирани са милиарди, но възвръщаемостта все още е под въпрос


    Консултантската фирма McKinsey & Company изрази загриженост относно огромните инвестиции в инфраструктура с изкуствен интелект. В доклада се казва, че прогнозите за бъдещото търсене на изкуствен интелект се основават повече на догадки, отколкото на реални данни. Инвестиционният бум, който набра скорост през последната година, накара McKinsey да оцени капиталовите разходи за центрове за данни, способни да обработват натоварвания от изкуствен интелект, на 7,9 трилиона долара до 2030 г.

    Въпреки това, както признават авторите на доклада, никой не знае точно какво ще бъде реалното търсене на изкуствен интелект. Не е ясно дали хиперскалерите ще продължат да понасят основната тежест на разходите или бизнесите, правителствата и финансовите институции ще измислят нови модели на финансиране. Също така не е ясно дали търсенето на центрове за данни ще продължи да расте поради нарастването на използването на изкуствен интелект или ще намалее, тъй като технологичният напредък прави изкуствения интелект по-малко ресурсоемък.

    Докладът не пита: Какво ще стане, ако изкуственият интелект е полезен само за специфични задачи, вместо да се превърне в универсалното „магическо“ решение, за което много ръководители се надяват, че ще автоматизира бизнес процесите и ще спести пари чрез съкращаване на персонала? Например, проучване, публикувано по-рано този месец, установи, че генеративният изкуствен интелект все още не е оказал значително влияние върху доходите или отработените часове в която и да е професия, въпреки милиардите, инвестирани в разработване и обучение на модели.

    McKinsey прогнозира, че глобалното търсене на изчислителна мощност може да се утрои до 2030 г., като натоварванията с изкуствен интелект ще представляват около 70% от това търсене. Това обаче зависи от два фактора: дали бизнесите могат да извлекат реална стойност от изкуствения интелект и дали технологичният напредък ще подобри значително ефективността на изчисленията. Първият фактор ще доведе до увеличаване на търсенето на инфраструктура, а вторият - до намаляване. Маккинзи предполага, че всяко повишаване на ефективността ще бъде компенсирано от увеличеното използване на изкуствен интелект на пазара – така нареченият „парадокс на Джевънс“.

    Компанията е разработила три сценария за това как ще се развие ситуацията до 2030 г.: от „ограничено търсене“ до „продължаващо търсене“ и „ускорено търсене“. Първият включва добавяне на 78 GW капацитет и капиталови разходи от 3,7 трилиона долара, средният - 124 GW и 5,2 трилиона долара. „Ускореното търсене“ на изкуствен интелект ще изисква въвеждане в експлоатация на 205 GW капацитет, което ще струва 7,9 трилиона долара.

    McKinsey обаче твърди, че настоящите инвестиции изостават от тези прогнози. Проучвания сред корпоративни ръководители показват, че те не са склонни да инвестират в изчислителна мощност на максимални нива поради несигурност относно бъдещото търсене. Те не са уверени, че големите разходи за инфраструктура с изкуствен интелект ще донесат осезаема възвръщаемост на инвестициите.

    Въпреки това, големи суми пари продължават да се вливат в изграждането на центрове за данни. Доклад на адвокатската кантора DLA Piper установи, че 70% от финансистите, консултантите и операторите очакват по-нататъшен растеж на финансирането на центрове за данни с изкуствен интелект, въпреки опасенията относно наличността на енергия.

    Причината е, че очакваната доходност сега е по-висока, отколкото в други сектори на икономиката, което привлича инвеститори, които нямат опит в тази област. Фабрис Кокио, вицепрезидент на Digital Realty, отбеляза, че на пазарите във Великобритания, Франция и Германия се появяват хора, които нямат представа за изкуствения интелект и центровете за данни, но активно инвестират в тях, което е признак на „типичен балон“.

    https://www.theregister.com/2025/05/..._lie_research/
    Този пост е редактиран от hristoslav2; 19-05-25 в 21:02.

  8.  
     
  9. Moderator Аватара на justify
    Тук е от
    Jun 2009
    Мнения
    9,321
    #112

    Отговор: Чат с изкуствен интелект

    Така или иначе изкуственият "интелект" на практика не е интелект. Не е способен на творческо мислене, нито е способен да създава нещо коренно ново, тоест да изобретява. Той се "движи" в рамките на вече изследваното от като прави предложения или избира най-доброто за конкретната ситуация. Да кажем човек е намерил/създал 8 варианта на решение на задача, а ИИ намира останалите варианти до сравнва всички и избира най-доброто.

Сподели във Facebook Сподели в Google Plus Сподели в Twitter Изпрати на Email Сподели в LinkedIn
Страница 8 от 8 ПърваПърва ... 678

Подобни теми

  1. Изкуствен подбор
    От ql^2/8 във форум Логически задачи
    Отговори: 4
    Последно: 06-01-13, 21:10

SetCombG.com
SetCombG.com е портален сайт и Форум за битова техника, телевизори, климатици, лаптопи и смартфони, създаден през 1999 година.
Заедно сме над 20 години!
Следвай ни
Горе