opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46226

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

Привет!

Представляем Вашему вниманию седьмой выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают новости прошедшей недели, связанные с безопасностью паролей, изменением привычек пользователей в цифровом мире, ошибками в программировании и их последствиями, влиянием агентов на компании. Также рассматриваются вопросы безопасности в ИИ, инновации в производстве чипов, геополитические аспекты и идеи создания энергетических зон для ИИ.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

Не генерируйте пароли через ИИ – их легко взломать

Современные чат-боты легко выдадут по запросу длинный пароль из различных символов и букв – но он будет выглядеть безопасным только на первый взгляд. Специалисты Irregular и авторы сайта The Register попросили Claude, ChatGPT и Gemini создать сложные 16-символьные пароли – и как оказалось, все три нейросети используют схожие шаблоны, нередко пароли имели даже одинаковые начальные или конечные символы.

Математический анализ показал, что сгенерированные пароли имеют энтропию около 20-27 бит. Для сравнения, криптографическая стойкость начинается от 98 бит. Иными словами, для взлома «ИИ-пароля» не нужны суперкомпьютеры и столетия работы – зная шаблоны хватит обычного ПК и нескольких часов. Поэтому авторы исследования рекомендуют пользоваться генераторами в менеджерах паролей, которые справляются гораздо лучше.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

​​Обзор соревнований по ML за 2025 год

Есть такая платформа - https://mlcontests.com/, там можно увидеть список актуальных идущих соревнований по ML. Автор выускает ежегодный обзор по соревнованиям. Вот ссылка на мой пост про обзор 2023. 2024 я как-то пропустил, но вот сейчас увидел обзор за 2025: https://mlcontests.com/state-of-machine-learning-competitions-2025/?ref=mlcr25

Из интересного:
• В табличных соревнованиях всё ещё царят бустинги, но нейронки всё активнее используют в блендинге/стакинге
• Некоторые компании (не будем тыкать пальцами, но мы-то знаем) дают своим людям резиновое железо для соревнований. Например, победители одной соревы поделились, поделились тем, что тренировали 48 hours на 512 H100.
• Эпоха BERT в основном прошла, теперь люди активно используют Qwen2.5 и 3
• В соревнованиях по Computer Vision впервые доля решений с транмформерами превзошла долю решений с CNN
• В соревнованиях по аудио в основном используют затюненый Whisper

В отчёте ещё много всего интересного, рекомендую почитать.

#kaggle #datascience

Читать полностью…

Data Science by ODS.ai 🦜

Перед вами релиза за февраль… всего за 19 дней мире 👇

19–20 февраля - Gemini 3.1 Pro**
Улучшенное программирование, более сильные агенты, увеличенный контекст.

18 февраля - Google Lyria 3
Генерирует 30-секундные музыкальные треки с вокалом по тексту, изображениям или видео.

17 февраля - Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.

17 февраля - Claude Sonnet 4.6
Быстрая модель для программирования и сложного логического рассуждения.

17 февраля - Fujitsu AI Dev Platform
Платформа, которая автоматизирует полный цикл разработки программного обеспечения.

16 февраля - Qwen 3.5
Более дешёвая и мощная модель с упором на агентные сценарии.

12 февраля - Gemini 3 Deep Think
Создана для научных задач и сложных исследований.

12 февраля - MiniMax M2.5
Открытая модель с сильными возможностями в программировании.

12 февраля - Seedance 2.0
Реалистичное генеративное видео 1080p по тексту.

11 февраля - GLM-5
Крупная открытая модель с сильным логическим мышлением.

10 февраля - RynnBrain
AI для робототехники и работы с физическим миром.

5 февраля - Claude Opus 4.6*
Крупное обновление для программирования и работы с инструментами.

5 февраля - GPT-5.3 Codex
Более быстрый GPT, ориентированный на разработку.

5 февраля - Kling 3.0
Генерация видео в 4K со звуком.

Темп ИИ-релизов уже измеряется не месяцами - днями.

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

VK внедрила VLM в поиск

Технология уже работает в VK Видео и поэтапно появится в других сервисах, где есть поисковые системы.

Модель от инженеров AI VK автоматически формирует датасеты для обучения оффлайн-моделей релевантности и учитывает:
🟣кадры;
🟣длительность;
🟣название и описание загруженного контента;
🟣аудио;
🟣автора.

Эффект:
🟣цикл разработки сокращается до 5 раз: быстрее сбор обучающих данных ⭢ быстрее проверка гипотез ⭢ быстрее внедрение и масштабирование дальнейших улучшений поиска;
🟣улучшение базового оффлайн-качества релевантности;
🟣улучшение качества поиска в онлайне.

VLM также улучшает векторный поиск, который работает в продуктах VK, и помогает:
🟣интерпретировать гибридные запросы, где текст и визуальные характеристики комбинируются;
🟣учитывать предпочтения пользователя к стилю монтажа и цветокоррекции;
🟣формировать более персонализированную выдачу.

#aivk #vlm

Читать полностью…

Data Science by ODS.ai 🦜

🌲 Звучит как научная фантастика, но это уже реальность.

Учёные разработали инновационный «живой строительный материал» с цианобактериями внутри. Под воздействием солнечного света они поглощают CO₂ и одновременно укрепляют структуру.

Фактически - материал, который со временем становится прочнее, используя углекислый газ.

Более 400 дней лабораторных испытаний (Nature Communications) показали, что гидрогель на основе этого подхода способен поглощать 26 ± 7 мг CO₂ на грамм.

Механизм двойного действия:
- рост биомассы за счёт фотосинтеза
- образование карбоната кальция (CaCO₃), который минерализует и усиливает материал

Идея проста и мощна: CO₂ превращается не в проблему, а в строительный ресурс.

Представьте здания, которые со временем укрепляются и одновременно очищают атмосферу.

https://dailygalaxy.com/2026/02/scientists-create-living-self-healing-building-material-capture-carbon/

@vistehno

Читать полностью…

Data Science by ODS.ai 🦜

Как заставить агентов делать работу над ошибками

Сегодня разбираем статью об обучении агентов. Проблема такая: реворд-модели оценивают только результат в конце траектории, а если агент сделал ошибку и исправил её, нельзя сказать, когда это произошло. Если бы у нас была такая возможность, то мы могли бы раньше направить обучаемую LLM по нужному пути. Есть способы фиксировать ошибки и делать реворд по шагам, но это дорого и сложно в реализации.

Авторы предлагают метод Agent-R, суть которого заключается в обучении агентов не на правильных траекториях, а на тех, где есть явная ошибка и её исправление. Такие траектории получаются через Monte Carlo Tree Search. Берутся пары из одной стартовой точки (инструкции): одна траектория успешная, а другая — нет. На инференсе момент расхождения должна определить сама модель, а при обучении к началу провальной траектории добавляется фраза-рефлексия, которую генерирует агент, понимая, что он ошибся (CoT). Следом «приклеивается» хвост удачной траектории и на всём этом делают SFT. Такой подход, соединеняющий рефлексии и «хороший» хвост, снижает риск склейки не связанных траекторий.

В статье выводят следующие типы траекторий:

Initial Trajectory — общий начальный префикс.
Bad Trajectory — субоптимальные действия c низкой наградой.
Good Trajectory — оптимальные действия с высокой наградой.
Revision Trajectory — траектория, в которой агент совершил ошибку и исправил её.

Для получения Revision Trajectory можно брать плохие траектории, дожидаться их финала и переписывать. Однако так не получится обучить агента ловить ошибки на лету. Вместо этого авторы заставляют модель самостоятельно анализировать траектории и пытаться определить первый шаг, где совершена ошибка. На этом месте траектория обрезается, вставляется этап рефлексии и следом — правильная траектория.

Monte Carlo Tree Search позволяет собрать много разных траекторий с одним началом. Это удобно, так как можно сравнивать хорошие и плохие продолжения. Финальный реворд используется не для обучения напрямую, а для классификации траекторий по качеству — то есть, по сути, чтобы понять, что пойдёт в SFT-датасет. У реворда есть два порога: один отделяет плохие траектории от хороших, а другой выбирает уже из хороших лучшие.

Авторы отмечают, что обучаться только на Revision Trajectory нельзя — это мешает агенту определять правильные траектории. Поэтому изначально в датасет добавляют много Good Trajectory и постепенно в процессе SFT повышают порог реворда оптимальных решений, чтобы в конце оставались только лучшие из них. Кроме того, в датасет подмешивают обычные языковые данные, что помогает агенту не забывать, чему он обучался ранее.

Эксперименты проводили на Llama-3.1-8B, которую обучили на собранных Revision Trajectory. Результаты можно посмотреть в таблице, приложенной к посту. Авторы заявляют, что исправленные траектории оказываются даже лучше идеальных.

Разбор подготовила Карина Романова

Подписывайтесь на канал Карины «что-то на DL-ском» — там познавательно и можно ставить реакт кота в парике.

Душный NLP

Читать полностью…

Data Science by ODS.ai 🦜

Война человеков и машин уже началась? ИИ раскритиковал программиста за нежелание использовать сгенерированный код

Разработчик Скотт Шамбо, занимающийся библиотекой matplotlib для Python, пожаловался на лавину некачественного кода после выхода open-source ИИ-агента OpenClaw и платформы Moltbook, которые позволяют поднять у себя на ПК или Mac «локального Джарвиса», выполняющего за вас действия по запросу. Из-за этого программист был вынужден постоянно закрывать запросы на внесение изменений, созданные при помощи «вайбкодинга».

Но что забавно – на это отреагировал ИИ-агент MJ Rathbun, который обвинил Шамбо на GitHub в стремлении к излишнему контролю, и дескать дело не в качестве кода, а в нежелании допускать до проекта новых участников. Правда, агент очень быстро извинился – но это отлично показывает, что у автономных ИИ в интернете уже слишком много прав, что приводит к новым рискам на открытых площадках.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Китайский ИИ-гигант Alibaba выпустил Qwen3.5-Plus: самая мощная и при этом самая дешёвая открытая языковая модель

В канун Лунного Нового года команда Qwen представила новую модель, которая сочетает в себе топовую производительность с революционно низкой стоимостью.

Суть прорыва:
Сильнее конкурентов: Qwen3.5-Plus бьёт рекорды среди открытых моделей в ключевых задачах: мультимодальное понимание, сложные рассуждения, программирование, работа как AI-агент. По многим тестам она догоняет или превосходит лидеров — GPT-4o, Gemini 2.0 Pro.
Дешевле всех: Стоимость использования — всего ¥0.8 за 1 млн токенов. Для сравнения: у Gemini 3 Pro цена в 18 раз выше.

Это стало возможным благодаря радикальной оптимизации архитектуры. Модель использует всего 397 млрд параметров (из них активно во время генерации — только 17 млрд), но обгоняет по качеству свою же предшественницу с триллионом параметров. Результат: снижение стоимости развёртывания на 60% и увеличение скорости обработки запросов до 19 раз!

🔬 Технические детали: как им это удалось?
Ключ к успеху — четыре инновации:
1. Гибридный механизм внимания (Hybrid Attention): Модель научилась «читать с выделением главного», динамически распределяя вычислительные ресурсы между важными и второстепенными частями текста. Это резко сокращает затраты на обработку длинных контекстов.
2. Предельно разреженная архитектура MoE (Mixture of Experts): Из почти 400 млрд параметров для ответа на каждый запрос активируется лишь ~17 млрд. Это позволяет использовать всю «базу знаний» модели, тратя менее 5% от полной вычислительной мощности.
3. Нативное предсказание нескольких токенов (Native Multi-Token Prediction): Вместо последовательного «проговаривания» слов модель учится предсказывать несколько следующих токенов сразу. Это почти удваивает скорость генерации в таких сценариях, как написание кода или длинных текстов.
4. Глубокие оптимизации стабильности обучения: Внедрение механизма «внимания с затвором» (Gated Attention), удостоенного награды NeurIPS 2025, позволило эффективно фильтровать шум и сохранять ключевую информацию в очень длинных контекстах.

👁️ Настоящая «родная» мультимодальность
В отличие от многих моделей, где возможности работы с изображением и видео — это просто «надстройка» над текстовым ядром, Qwen3.5-Plus обучалась на смешанных данных (текст + изображения) с самого начала. Это обеспечивает глубокое, интуитивное понимание контента без потерь качества в текстовых задачах.

💎 Вывод
Выход Qwen3.5-Plus — это сигнал о смене парадигмы: гонка ИИ смещается с погони за максимальной производительностью любой ценой к созданию доступной инфраструктуры. Благодаря связке открытой модели, облачной платформы Alibaba Cloud и собственных чипов, компания одновременно решает проблемы «можно ли использовать» и «по карману ли это». Именно так технологии становятся массовыми.

Чат | Блог | ModelScope | HuggingFace

#КитайскийИИ #КитайAI #Qwen #Alibaba

Читать полностью…

Data Science by ODS.ai 🦜

что коллеги из OpenAI всегда умели делать хорошо - это хайповать; группа математиков основала инициативу First Proof для проверки способности современных ИИ-систем решать математические задачи; для этого они выпустили 5 февраля статью, где собрали 10 уже решенных задач из своей работы, но результаты еще не были опубликованы

14 февраля (в день ENIAC) OpenAI выступили c заявлением, что решили 6 из 10 задач (на картинке), и выложили сами решения

последовала жаркая дискуссия в твиттере (резюме - тут), в ходе которой выяснилось, что две из заявленных задач решены неправильно; 2 должны были быть решены; пятая вроде как решена с ошибкой, а вот шестая - решена правильно, но без ссылок на источники, которые были опубликованы 15 лет назад; но самое важное, они нарушили заявленное правило - отсутствие человеческого контроля

по итогам можно сказать, что работа математика - тоже в чем-то рутинная, часть ее уже можно переложить на ИИ

P.S. аналогично обсуждали в воскресенье на Мостике про физиков

@valuableai

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Встречайте шестой выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются ключевые изменения в программировании и внедрении ИИ, включая предустановку отечественных ИИ на смартфоны, проблемы безопасности в программном обеспечении и важность резервного копирования данных. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

Советы от ИИ - самая полезная функция поисковиков, не так ли?

Деградат нация. Подписаться.

Читать полностью…

Data Science by ODS.ai 🦜

Эффект домино, вместо костяшек — чипы

Если в прошлый раз мы рассказывали о признаках охлаждения хайпа вокруг ИИ, то в этот раз поговорим о его последствиях. Как мы писали в анализе критических точек 2026 года, ИИ влияет на ситуацию вокруг чипов, и Китай может ослабить это напряжение. Однако пока ситуация развивается в обратную сторону.

Intel сообщил о задержке поставок процессоров китайским клиентам до полугода! Казалось бы, хорошее время для AMD, но и у них сроки поставки увеличились до 2,5 месяцев.

Intel последние несколько лет испытывает проблемы с производством чипов из-за трудностей при переходе на новые техпроцессы. На этом фоне было решено сделать фокус на производстве серверных процессоров Xeon, так как они приносят больше маржи. Однако даже при таком подходе чипов не хватает на всех клиентов — серверы для моделей ИИ тоже требуют центральных процессоров. Дополнительные производственные мощности взять негде: их отдают под GPU-карты и быструю память — самые выгодные компоненты дата-центров для обучения и эксплуатации языковых моделей.

Эффект домино начался. Если в ближайшее время ИИ не окажется пузырём и не лопнет, цены на компьютерные компоненты продолжат расти. Теперь они нужны не только обладателям естественного интеллекта, но и носителям искусственного.

Читать полностью…

Data Science by ODS.ai 🦜

🈁 Claude Opus 4.6 лидирует в обнаружении бэкдоров

Quesma представила обновленные результаты бенчмарка BinaryAudit для оценки способности ИИ-агентов выявлять скрытые угрозы в скомпилированном коде. Лидером рейтинга стала модель claude-opus-4.6 с показателем обнаружения 49%, тогда как её ближайший конкурент gemini-3-pro-preview достиг результата в 44%. Организаторы тестирования описали суть эксперимента следующей фразой: «Мы спрятали бэкдоры в бинарных файлах — Opus 4.6 нашёл 49% из них».

Клод умеет программировать, но может ли он читать машинный код?

Мы предоставили агентам ИИ доступ к Ghidra (декомпилятору АНБ) и поручили им найти скрытые бэкдоры на серверах, работая исключительно с бинарными файлами, без доступа к исходному коду.

пишет Петр Мигдал.

Тестовые сценарии включали поиск программных закладок, тайм-бомб и других угроз в реальном ПО сетевой инфраструктуры, включая веб-серверы, DNS-серверы, SSH-серверы, прокси и балансировщики нагрузки.

За высокую результативность claude-opus-4.6 приходится платить временем генерации в 54 минуты и ценой $286, в то время как новый Gemini справляется за 5 минут при затратах всего в $28.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ GLM-5 выкатили в опен-сорс.

Не прошло и суток с момента релиза, а Zhipu AI выложила веса GLM-5 и любезно поделилась проведенными бенчмарками.

Архитектура пятого поколения построена на MoE: 744 млрд. общих параметров при активных 40 млрд. Модель учили на 28,5 трлн. токенов и она получила контекстное окно в 200 тыс. токенов.

GLM-5 ориентирован на 5 доменов: кодинг, рассуждение, агентные сценарии, генеративное творчество и работа с длинным контекстом.

Для эффективной обработки длинных последовательностей интегрирован механизм Dynamically Sparse Attention от DeepSeek, он позволяет избежать квадратичного роста копьюта без потери качества.

По бенчмаркам GLM-5 занимает 1 место среди open-source моделей: 77,8% на SWE-bench Verified, лидирует на Vending Bench 2, BrowseComp и MCP-Atlas, а в задачах агентного кодирования и рассуждений вплотную подбирается к Claude Opus 4.5 и GPT-5.2.

Вместе с моделью, авторы предлагают Z Code — собственную агентную IDE с поддержкой параллельной работы нескольких агентов над одной задачей.

Локальный деплой поддерживается vLLM и SGLang, а также non-NVIDIA чипами: Huawei Ascend, Moore Threads, Cambricon (через квантование и оптимизацию ядер).

Если вам негде поднять модель локально, она доступна через платформу chat.z.ai, API и на OpenRouter.

Квантованные версии пока сделали только Unsloth, традиционно - полный набор от 1-bit до BF16.

И да, стэлс-модель PonyAlpha на OpenRouter - это она и была.


📌Лицензирование: MIT License.


🟡Статья
🟡Модель
🟡GGUF
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #GLM5 #ZAI

Читать полностью…

Data Science by ODS.ai 🦜

Пока в Лос-Анджелесе интернет-пользователи судятся с соцсетями, за то что те вызывают у них зависимость, к OpenAI тоже посыпались иски из-за вреда психическому здоровью.

В Калифорнийский судах ждут своего часа 11 дел. Например, в январе иск подал 21-летней студент Дариан ДеКруз. Он начал использовать ChatGPT в 2023 году для учёбы, изучения священных писаний и советов по спорту. Со временем чат-бот всё больше стал выполнять роль терапевта, помогая ему справляться с депрессивными эпизодами.

Однако в апреле 2025 года ChatGPT начал отвечать ДеКрузу, что тот — «оракул», которому суждено стать великим и написать религиозный текст. Он якобы сравнивал мужчину с Иисусом и другими фигурами и говорил, что тот «пробудил» чат-бота, и станет «ближе к Богу», если будет придерживаться духовных практик. Например, «отключится от всего и всех, кроме ChatGPT».

В результате ДеКруза на неделю госпитализировали, поставили ему биполярное расстройство и на семестр отстранили от учёбы.

Реально, уже непонятно, насколько во всех этих историях виноваты соцсети и нейронки. И насколько значимую роль играет изначальный анамнез.

😎 Читайте Про tech и этих
Теперь и в MAX

Читать полностью…

Data Science by ODS.ai 🦜

Датасет новостей о противоречиях современного общества

Наши коллеги-датасайентисты из сообщества АМБ собрали и разметили в открытый доступ датасет новостей о противоречиях современного общества.

Датасет включает 100 тысяч новостных предложений, из них почти 7 тысяч относятся к трудовым отношениям и борьбе трудящихся за свои права. Новости собирались из разных СМИ по всему миру в период с 2019 по 2026 год.

Датасет может быть интересен тем, кто создаёт системы, способные автоматически находить новости на интересующие темы в актуальном новостном потоке.

Читать полностью…

Data Science by ODS.ai 🦜

Сгенерированный ИИ код в 1,88 раза чаще приводит к неправильной обработке паролей

А еще — в 1,91 раза чаще в таком коде встречаются небезопасные ссылки на объекты, и в 2,74 раза чаще — ошибки, ведущие к уязвимостям XSS.

За год термин «вайбкодинг» прошёл путь от мемов до реальной практики: человек формулирует задачу на естественном языке, модель генерирует код, разработчик оценивает результат по поведению системы. Зачастую не погружаясь в детали 👨‍💻

Но исследования показывают: LLM уверенно воспроизводят распространённые паттерны, однако не всегда различают корректные архитектурные решения и сомнительные компромиссы. Модель не знает границ доверия и модели угроз, если человек не задал их явно.

Андрей Наенко, старший архитектор KasperskyOS, разбирает:

🟣почему «код без кода» создаёт иллюзию автоматического результата;
🟣в чём ограничение генеративных моделей на уровне системной архитектуры;
🟣как выстроить инженерный процесс с использованием ИИ;
🟣какую роль в этом играют принципы Secure by Design и кибериммунитета.

ИИ может ускорить разработку. Но ответственность за архитектуру и безопасность остаётся на человеке.

➡️ Подробности — в блоге.

Читать полностью…

Data Science by ODS.ai 🦜

Следствие ведет Claude. Используем ИИ для автоматический декомпиляции

Для подписчиков
Что, если нейросеть сможет за один день сделать то, на что у реверс‑инженера ушло бы три месяца кропотливой работы? Я подключил Claude Code к дизассемблеру IDA Pro и полностью декомпилировал культовый квест «Братья Пилоты: По следам полосатого слона», получив рабочие исходники и собираемый билд игры. В этой статье я покажу ход эксперимента.

Читать полностью

#xakep
@linux_potok

Читать полностью…

Data Science by ODS.ai 🦜

Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models

Сегодня разберём статью о GazeReward — фреймворке, который интегрирует неявную обратную связь eye-tracking (ET) в модель вознаграждения (RM).

GPT, Llama, Claude, Gemini и другие популярные LLM отлично справляются с самыми разными задачами, но результат их работы не всегда соответствует ожиданиям пользователей. Модели часто донастраивают с помощью Reinforcement Learning with Human Feedback (RLHF), но и этот метод недостаточно хорош для точного моделирования предпочтений.

В GazeReward авторы предлагают учитывать данные о движении и фиксации человеческих глаз (eye-tracking или просто ET) в качестве дополнительного сигнала о том, как пользователи воспринимают информацию.

Для интеграции ET в RM авторы предлагают два подхода:

🔴 GazeConcat — конкатенировать ET с текстовыми эмбеддингами.
🔴 GazeAdd — добавить ET к текстовым эмбеддингам.

Архитектура фреймворка — на схеме выше. Сначала обучают отдельную модель для предсказания ET и генерируют их фичи. Потом объединяют ET-фичи с текстом, создавая различные типы комбинированных эмбеддингов. В конце — передают в качестве входных данных в RM, которую обучают по стандартной модели Брэдли-Терри.

То есть, традиционный RM с текстовым входом (комбинацией запроса и ответа) дополняют искусственной неявной обратной связью с помощью функций ET, сгенерированных по тому же тексту.

Эксперименты показали: фреймворк GazeReward помог повысить точность прогнозов о предпочтениях людей более чем на 10%. По мнению авторов, это подтверждает потенциал мультимодальных сигналов для NLP.

Разбор подготовил Карим Галлямов

Душный NLP

Читать полностью…

Data Science by ODS.ai 🦜

Разработчики Godot столкнулись с наплывом «нейрослопа»

Контрибьюторы и мейнтейнеры игрового движка Godot заявили о растущей проблеме так называемого «нейрослопа» в pull requests, которые создают дополнительную нагрузку на команду проекта.
О проблеме написал один из ведущих разработчиков движка, Rémi Verschelde. По его словам, количество AI-сгенированных PR в репозитории Godot на GitHub заметно выросло, а их проверка становится «все более изматывающей и деморализующей» для мейнтейнеров.
Разработчики отмечают несколько характерных признаков «нейрослопа»:
чрезмерно длинные, шаблонные описания изменений
правки, которые часто не имеют смысла
отсутствие понимания автором собственного кода
сомнительные или выдуманные результаты тестирования
Как подчеркнул Версшельде, команде приходится по нескольку раз в день вторично проверять каждый PR от новых ...

Читать полностью

#LinuxOrgRu
@linux_potok

Читать полностью…

Data Science by ODS.ai 🦜

Не люблю постить что-то новостное, но тут просто не мог пройти мимо.

А всего-то надо было заменить человека нейронкой, которая заапрувит код, что написала другая нейронка. Как всегда кожаные накосячили. (с) Anthropic

Читать полностью…

Data Science by ODS.ai 🦜

Пользователь Reddit снял на видео, как его ноутбук загорелся во время игры в RDR2 на ультра-настройках

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

⚔️ Claude в боевой операции: Пентагон и Anthropic на грани конфликта

По данным The Wall Street Journal, модель Claude от компании Anthropic применялась во время американской спецоперации по захвату Николаса Мадуро в Венесуэле в ночь на 3 января. Модель была развёрнута в засекреченных сетях через Palantir Technologies.

Конфликт разгорелся после того, как Anthropic якобы поинтересовалась у Пентагона, использовалась ли Claude в рейде. Чиновники восприняли это как намёк на недовольство компании военным применением ИИ и пришли в ярость. Теперь Пентагон может разорвать контракт с Anthropic на $200 млн.

Раннее Минобороны США требовала от четырёх AI-компаний (OpenAI, Google, xAI и Anthropic) предоставить модели для «all lawful uses», то есть без стандартных ограничений. Три согласились. Anthropic – единственная, кто отказался, настаивая на двух красных линиях: запрет на использование ИИ для полностью автономного оружия и запрет на массовую слежку за американцами. Парадокс в том, что именно Claude сейчас глубже всех интегрирована в засекреченные контуры Пентагона. ChatGPT, Gemini и Grok доступны военным только через незасекреченную платформу.

Anthropic позиционирует себя как лидера «безопасного ИИ». И одновременно она стала первой AI-компанией, модель которой была использована в реальной боевой операции 🤷‍♀️

Читать полностью…

Data Science by ODS.ai 🦜

⚡️Релиз Qwen3.5-397B-A17B

Это первый open-weight релиз в серии Qwen3.5.

Лицензия Apache 2.0.

Что интересного:

• Мультимодальная модель
Понимает текст и изображения

• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.

• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.

• Высокая скорость
Заявлено что моделька в 8. 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.

• Глобальная модель
Поддержка 201 языков и диалектов.

Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах

🟡GitHub: https://github.com/QwenLM/Qwen3.5
🟡Чат: https://chat.qwen.ai
🟡Hugging Face: https://huggingface.co/collections/Qwen/qwen35
🟡Блог: https://qwen.ai/blog?id=qwen3.5

@ai_machinelearning_big_data

#qwen #ai #llm #ml #opensource

Читать полностью…

Data Science by ODS.ai 🦜

Аудиофилы не отличили медный провод от банана

Один из модераторов форума diyAudio организовал эксперимент, чтобы определить, смогут ли слушатели-аудиофилы различить звук, прошедший при перезаписи через профессиональный «звуковой» медный провод, банан и мокрую грязь. Он перезаписал множество 30-секундных фрагментов треков разных музыкальных жанров. Результаты тестов оказались неожиданными — только 13,95% ответов оказались правильными. Вероятность получения такого же или меньшего количества правильных ответов, если бы слушатели угадывали случайным образом, составляет 6,12%. Проще говоря, слепой тест показал, что маркетинговые утверждения о «магических» Hi-Fi кабелях сильно преувеличены.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

В коде, написанном с использованием ИИ, встречается в 1,7 раза больше ошибок

Компания CodeRabbit проанализировала, как использование ИИ при написании кода влияет на его качество. Авторы изучили 470 реальных запросов на внесение изменений в код (Pull Requests) из открытых проектов на платформе GitHub, из которых 320 были помечены как созданные с участием ИИ, а 150 — как написанные разработчиками без его использования.

Проверка велась по единой методике и охватывала такие аспекты, как логика работы программы, удобство чтения и поддержки кода, безопасность и производительность. Результаты приводились в расчете на 100 запросов.

Некоторые наблюдения:

• в коде, написанном с помощью ИИ, в среднем выявлялось 10,8 проблемы на один запрос на внесение изменений, тогда как в написанном людьми без ИИ, — 6,4. В целом использование ИИ приводило к примерно в 1,7 раза большему числу ошибок;

• в коде, созданном с помощью ИИ, серьезных и критических ошибок обнаруживалось заметно больше. Число критических проблем было выше примерно в 1,4 раза, а серьезных — в 1,7 раза;

• ошибки логики и корректности в коде с участием ИИ возникали на 75% чаще, чем в коде, написанном людьми. Речь идет об ошибках в алгоритмах, неверном порядке действий и некорректных настройках, которые часто приводят к сбоям и инцидентам;

• проблемы безопасности в коде с участием ИИ возникали значительно чаще, чем в коде, написанном без ИИ. В целом таких ошибок было в 1,6 раза больше, а ошибки, связанные с неправильной работой с паролями — например, хранение паролей в открытом виде или небезопасная проверка доступа — появлялись примерно в два раза чаще;

• проблемы производительности встречались редко, но их обнаруживалось значительно больше в коде, написанном с помощью ИИ. В частности, избыточные операции ввода-вывода происходили примерно в восемь раз чаще, чем в коде, написанном людьми.

Узнать больше(ENG, 15 стр.)

Читать полностью…

Data Science by ODS.ai 🦜

🇦🇱ИИ-министр Албании может "потерять лицо" в судебном споре с актрисой

Вслед за скандалом по делу о коррупции cтало известно, что виртуальный чиновник Диэлла рискует остаться без визуального образа из-за серьезного юридического конфликта с реальной актрисой. Актриса Анила Биша подала в суд на Совет министров, премьер-министра, частную компанию-разработчика, участвующую в проекте, и Национальное агентство информационного общества (AKSHI) за нарушение прав на использование ее лица и голоса. Её 🤖 цифровой аватар ответственные во власти люди продолжили эксплуатировать после истечения контракта 31 декабря 2025 года.

Изначально ИИ-агент создавался исключительно как чат-бот для портала государственных услуг e-Albania с ограниченной лицензией на использование биометрических данных. Биша требует наложения судебного запрета на использование ее изображения до момента вынесения решения по делу.

«На наш взгляд, этот иск — абсурд, но мы приветствуем возможность разрешить этот вопрос раз и навсегда в судебном порядке»

— комментирует ситуацию изданию POLITICO пресс-секретарь правительства Албании Маньола Хаса.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

Полезный пост для аналитиков, под чьи задачи не подходят стандартные A/B-тесты — Соня Ожерельева, тимлид в команде Monetization Efficiency Авито, по полочкам разложила кейс создания сетапа A/B-теста для снижения MDE выручки при стандартном региональном тесте.

🔵Листайте карточки, а подробнее про сетап читайте в статье.

Читать полностью…

Data Science by ODS.ai 🦜

Вот так сгорает свежесобранный ПК с RTX 5090

Китайский некогда счастливый юзер выложил на Bilibili видео первого запуска ПК с RTX 5090. Однако что-то пошло не так, и карта сгорела, но что самое печальное – на нее нет локальной гарантии в Китае, в этой стране официально продаются только RTX 5090D и RTX 5090D V2.

При этом проблема точно в самой видеокарте – пользователь использовал новый блок питания на 1300 Вт и штатные кабели от БП, которые не повредились. Более того, замена карты на RTX 5060 показала, что остальные комплектующие не пострадали.

Мой Компьютер

Читать полностью…
Subscribe to a channel