Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.
Подписчик пишет, что уже получил доступ к GPT-4.5 в подписке plus
https://chatgpt.com/?model=gpt-4-5
📄 Вышла системная карточка GPT-4.5
https://cdn.openai.com/gpt-4-5-system-card.pdf
Если коротко, лучше 4o, хуже o3-mini
✳️ Claude 3.7 Sonnet доступна всем!
Anthropic представили Claude 3.7 Sonnet (лучшую на этой неделе) LLM в их линейке, обладающий гибридным режимом рассуждения. Это означает, что модель может выдавать мгновенные ответы или работать в расширенном reasoning-режиме.
🖥 Claude Code – интеллектуальный агент для разработки
Anthropic также представили Claude Code – инструмент для автоматизации программирования прямо из командной строки. Он умеет:
🔹 Анализировать код и редактировать файлы
🔹 Запускать тесты и отлаживать программы
🔹 Автоматически коммитить и пушить изменения в GitHub
🔹 Использовать командную строку для выполнения сложных задач
Результаты раннего тестирования показывают, что Claude Code сокращает время на выполнение сложных задач с 45 минут до одного запроса (прям так и пишут, ок, цитирую).
Но самое крутое то, что модель доступна всем, даже бесплатным пользователям!
💻 Го тестить: https://claude.ai/
2 нейронки от китайского режима подряд
Сначала deepseek, теперь qwen2.5-max. Холодная ии война
NVIDIA / CES 2025
началось
https://www.youtube.com/live/k82RwXqZHY8?si=npSm8kNKuO2R8ANv
Microsoft AI представили Phi-4 — Small Language Model 14 млрд
Так, результаты сопоставимы с гораздо более крупными моделями, такими как GPT-4 и Llama-3.
Ключевые особенности Phi-4:
• Synthetic Data Generation: Используются подходы вроде chain-of-thought prompting для создания данных, стимулирующих системное мышление, завещание у нотариуса, кофе душистый
• Post-Training Refinement: Direct Preference Optimization и rejection sampling для улучшения логической согласованности и точности ответов.
• Extended Context Length: Увеличенная длина контекста до 16K токенов для сложных задач с длинными цепочками рассуждений.
Результаты:
• GPQA: 56.1 (лучше GPT-4o с 40.9 и Llama-3 с 49.1).
• MATH: 80.4
📝 Phi-4 Технический Репорт
✨ Стрим от OpenAI, День 2
Напоминаю, что вчера открыли доступ к полноценной o1, и представили новую pro подписку. Что было:
— Файнтюн o1 модели (позволяют обучать типу рассуждений, что полезно в узкоспециализированных доменах: право, генетика, etc)
👉 https://youtu.be/fMJMhBFa_Gc
📍 CoTracker3 — новый подход к трекингу точек
Модель команды Meta AI и Visual Geometry Group из Оксфорда обучали на реальных видео без аннотаций, используя псевдоразметку.
Особенности CoTracker3:
— Обучение на реальных видео в посупервай-режиме.
— Упрощённая архитектура требует 1000 раз меньший датасет без потери качества.
— Поддержка трекинга через окклюзии с другими объектами.
Результаты:
Модель значительно превосходит предыдущие трекеры (например, BootsTAPIR и LocoTrack) в задачах с обширной окклюзией и более стабильна. CoTracker3 демонстрирует высокую точность на стандартных бенчмарках. Из ограничений выделю трудности с трекингом на поверхностях без характерных особенностей, таких как небо или вода.
📄 paper
🤗 demo
💻 code
Новая диффузионная модель от Nvidia: Sana
Основные особенности:
— DC-AE энкрдер, (если интересно вот ссылка) который понижает в 32 раза, вместо привычных 8ми для vqVAE, без сильных потерь
— Линейный DiT: по сути ViT, где фьюз происходит не через аттеншен, а через марицу рангом d << n (где, n это количество image token’ов). Подробнее про метод у Яныка на ютубе. Имхо это не аттеншн, но называйте как хотите.
— Вместо T5 взяли small LLM (decoder only), не прошло и 2 лет…
— Кастомный сэмплер: Flow-DPM-Solver
Обещают может и не лучшее качество, но супер быструю скорость и резолюшн 4096х4096 (благодаря DC-AE).
💻 Code (будет тут)
📝 paper
😈 demo на градио
p.s.: погененрил в демо, 1024х1024 работает норм, но пишет с ошибками.
🎓 Уже вторая Нобелевская премия за AI — на этот раз по химии. Половина премии за предсказание структуры белков» нейросетью Alpha Fold (от DeepMind)
Нобелевскую премию по химии 2024 года: одну половину — Дэвиду Бейкеру «за вычислительный дизайн белков», а другую половину — совместно Демису Хассабису и Джону М. Джамперу «за предсказание структуры белков».
🔥 NVIDIA выпустила Llama-3.1-Nemotron-51B
Llama-3.1-Nemotron-51B модель нового поколения, которая выводит на новый уровень соотношение точность/эффективность.
Сеть создана с использованием Neural Architecture Search (NAS) и дистилляции от Llama-3.1-70B, эта модель предлагает 2.2x ускорение инференса без значительных потерь в точности.
Подробнее:
📊 Производительность:
▫️Пропускная способность: 6472 токенов/сек, что более чем в два раза быстрее исходной Llama-3.1-70B.
▫️И главное, модель поддерживает выполнение задач на одной NVIDIA H100 GPU, что значительно снижает стоимость и упрощает инференс.
⚙️ Основные инновации:
▫️Архитектура оптимизирована с помощью NAS, что снижает нагрузку на память и вычислительные ресурсы.
▫️Плюс заюзали механизм Block-distillation, позволяющий уменьшить количество блоков без значительных потерь в точности.
📇 Blog NVIDIA
🤗 Веса
💻 Потестить бесплатно можно тут
👾 GPT o1-preview заняла первое место на лидерборде https://lmarena.ai/
Ожидаемо. В той или иной форме, медленное мышление (chain-of-thought) уже было следующим шагом. Так что, скорее всего, новым стандартом станет: preTrain, с последующим SFT + DPO\RLFH + Chain-of-Thought. Скорее всего 2025 станет годом подобных open-source релизов.
Из интересного стоит добавить, что OpenAI обновила и GPT-4o (2024-09-03), которая получила 1335 эло-скора (против предшественницы 2024-08-08 с 1316).
Кстати, ребята добавили Jailbreak models at RedTeam Arena, где можно тестить (через дикий объюз) и сравнивать (борда) безопасность/опасность языковых моделей.
Удивительное дело, оказывается у Anthropic выложены в свободный доступ системные промпты от их Claude. Никаких тайных знаний, но оказалось что они довольно обьемные, посмотреть можно тут, я прям минут 20 читал и вчитывался.
подглядел у @cgevent, он нашел первым
🏆 LLaMa 3.1 — 405B модель от Меты заняла 3е на арене
Это невероятный успех для опенсорса!
1 место — GPT-4o & GPT-4o-mini
2 место — Claude 3.5 Sonnet
3 место — Gemini-Advanced & LLaMa 3.1
Трансляция GPT-4.5
Pro — скоро
Plus юзеры — следующая неделя
https://www.youtube.com/live/cfRYp0nItZ8?si=QdHB5-bcFJd7KLq3
🤯 Я сейчас не шучу, Дональд Трамп сгенерировал видео и выложил на своей платформе Truth Social. Какая же это дичь..
realDonaldTrump/posts/114068387897265338" rel="nofollow">https://truthsocial.com/@realDonaldTrump/posts/114068387897265338
Deep Research от OpenAI
Автоматизация исследования. Наверняка помнишь себя, гуглящую, сидящую на форумах, пересматривающую видео в поисках ответа. Благодаря Deep Research можно делегировать это GPT.
По сути это эволюция медленного мышления (chain-of-thought), которое мы наблюдали в o1 и о3 с тюном в строну работы с поисковиком и экстракции и обработки найденой информации.
Трансляция началась:
https://youtu.be/jv-lpIsnLOo
OpenAI запускают агента Operator
Упрощает рутину: от бронирования столика или покупки билетов в браузере до более сложного ассистирования.
🖥️ https://www.youtube.com/live/CSE77wAdDLg?si=-ZZQJ-zCByXW3NIB
По Sora утекло новое видео, говорят показывают v2
* 1-минутные видео на выходе
* текст в видео
* текст+изображение в видео
* текст+видео в видео
Не долго мы жили без cam-rip в АИ видео ☕️
🔍 OpenAI выкатили ChatGPT Search
подробнее тут
Состоялся релиз Stable Diffusion 3.5 8B Large
https://huggingface.co/stabilityai/stable-diffusion-3.5-large
🔥 Сегодня Mistral AI представила новые модели — Ministral 3B и Ministral 8B
Ministral 3B и Ministral 8B, разработанные для on-device вычислений. Эти модели предлагают превосходную производительность в задачах reasoning, commonsense и function-calling, поддерживая контекст до 128k токенов.
⚙️ Ministral 3B разработана для сверхэффективного использования на устройствах с ограниченными ресурсами (e.g.: смартфоны). Ministral 8B предлагает больше возможностей для сложных задач. Обе модели поддерживают до 128k контекста и используют передовые методы pruning и quantization для снижения нагрузки на железо.
Бенчмарки показывают неплохой буст в сравнение с существующими Llama 3.1 / 3.2 и Gemma 2 моделями.
🤖 Ministral 8B: ссылка на модель
🎓 Хинтон и Хопфилд получили Нобелевскую премию по физике за создание искусственных нейронных сетей
Нобелевскую премию по физике 2024 года Джону Дж. Хопфилду и Джеффри Э. Хинтону «за основополагающие открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей».
🦙 Релиз Llama 3.2 от Meta
На этот раз нам предоставили выбор аж из четырех моделей, включая, в том числе, и достаточно легковесные и мультимодальные версии:
▫️Llama 3.2 — 1B (1.23B) Lightweight
▫️Llama 3.2 — 3B (3.21B) Lightweight
▫️Llama 3.2 — 11B Multimodal
▫️Llama 3.2 — 90B Multimodal
Обзор: Llama 3.2 была предварительно обучена на 9 триллионах токенов данных из общедоступных источников.
Претрейн моделей 1B и 3B Llama 3.2 являются дистилом из Llama 3.1 8B и 70B (предиктили не следующий токен, а логиты из старших моделей)
В инстракт трейне использовали аналогичный рецепт, что и Llama 3.1:
— Supervised Fine-Tuning (SFT)
— Rejection Sampling (RS)
— Direct Preference Optimization (DPO)
Сutoff: Декабрь 2023
P.S.: Ждем мультимодальные 11B и 90B. А среди легковесных — 3B модель вышла очень интересной, хотя и но не стоит забывать про Phi-3.5-mini (3.8B), которая очень неплохо справляется в своей весовой категории.
🤗 Скачать 1B и 3B легковесные версии можно уже сейчас на HuggingFace
https://youtu.be/Do6iiSa4hmc?si=4IpOeAa8ijroPf2j
Имхо не зря человечество тренит сети
⛓🧠 OpenAI модели с Chain-of-Thought из "коробки" и это прям топ
Есть такая концепция "быстрого и медленного мышления".
Например, когда тебя спрашивают:
— Сколько будет 7 на 8 ?
— Сколько нужно слоев в нейросети для аппроксимация функции с заданной точностью?
— Кто написал "Евгения Онегина"?
При быстром мышлении мы отвечаем сразу, "не думая":
— 56; 2 слоя; Чайковский
При медленном мы задаем себе промежуточный вопросы:
— Умножить или поделить? Прям любой функции? Оперу или роман?
Короче, Chain-of-Thought там очень серьезный, и качество стало значительно выше.
👉 Так что приглашаю всех на блог OpenAI
📋 GPT-4o System Card
OpenAI выложили отчет, который описывает работу по обеспечению безопасности, выполненную перед выпуском GPT-4o, включая внешнюю проверку (red teaming), оценку рисков, а также обзор встроенных мер по снижению рисков в ключевых областях применения.
https://openai.com/index/gpt-4o-system-card/
Сегодня опенсорснули Mistral Large 123B
Поддерживаются десятки языков, включая английский, французский, немецкий, испанский, итальянский, китайский, японский, корейский, португальский, голландский и польский.
LLMка обучена более чем 80 языках программирования, таких как Python, Java, C, C++, Javacsript и Bash. Также есть возможности вызова функций и вывода JSON.
Лицензия Mistral Research: разрешает использование и модификацию в исследовательских и некоммерческих целях.
Контекст: 128 тысяч токенов. Новый стандарт, короче.
🇫🇷 https://huggingface.co/mistralai/Mistral-Large-Instruct-2407