Авторский by @iamitbeard. Про IT, технологии и ИИ; без цензуры и политстирильности. Чат @itbeard_talk Слава Україні. Жыве Беларусь. АйТиБорода: https://youtube.com/itbeard Эволюция Кода: https://web.tribute.tg/l/ge AIA Podcast: https://itbeard.com/aia
Ребят, мы разместили CodeAlive MCP в cursor.directory. Будет круто, если поддержете лайками.
Напомню, что CodeAlive MCP позволяет законнектить всю кодовую базу (или несколько кодовых баз) к Cursor и др. тулзами и позволяет получать глубокие ответы по коду всего проеРебят, мы разместили CodeAlive MCP в cursor.directory. Будет круто, если поддержете лайками.кта и подгружать нужный контекст а) быстрее б) дешевле.
Вот тут разместились: https://cursor.directory/board
Дождались: https://qwenlm.github.io/blog/qwen3/
Самая мощная опенсорсная моделька для ваших ноутов.
Trae IDE получил большое обновление
- Новый UI
- Билдер кастомных агентов
- Веб-поиск и индексация!! документации (в нормальном виде была только в Cursor)
- Поддержка рулов для проекта
- Поддержка MCP!!!
- Добавили OpenRouter как провайдер моделей.
Ну что, официально теперь это ТОП-3 AI-first IDE. Да ещё и бесплатная (в обмен на ваши данных во славу КПК, видимо)
📚 В клубе "Эволюция Кода" состоялся трехчасовой созвон с подробным разбором резонансной статьи про развитие ИИ в ближайшие пять лет - "AI 2027" (https://ai-2027.com)
Посмотреть и прослушать запись можно в клубе, ссылка на вступление, залетайте: https://web.tribute.tg/l/ge
https://www.youtube.com/watch?v=hAZjulh8H1k - давно не смотрел парней. Залетайте и вы :)
Читать полностью…За всеми этими релизами очередных моделей, не упустите ещё один инструмент для кодогенерации, от OpenAI и опенсорсный (ого) - Codex
https://www.youtube.com/watch?v=FUq9qRwrDrI
Похоже на aider или Claude Code,но попроще.
Про вайбкодинг
Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.
1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.
Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.
Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).
2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?”
3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.
4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.
5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.
6. Для эффективной работы нужно дописывать правила в CLAUDE.md
(.cursorrules
и так далее), подключать релевантные MCP и в целом анализировать, где оно косячит. Например, вот кусок моего глобал конфига:
Python style guide:
1) when catching exceptions, use logger.exception("message"), not logger.error(str(e)).
2) do not use mocks unless explicitly asked!
3) ensure types are correct, e.g. def hello(name: str = None) is WRONG, def hello(name: str | None = None) is correct.
4) use logger = logging.getLogger(__name__) when declaring a logger
5) prefer match + case over if + elif + else
6) using hasattr is typically a sign of bad design!
Сегодня выложил в клубе огромнейший обзор нового (и пока закрытого для бета-тестеров) ИИ-ассистена от JetBrains - Junie. Вот пятнадцать минут из двухчасового обзора, с основными мыслями и впечатлениями: https://youtu.be/qwzhzFK8u3I
У нас таких обзоров и воркшопов поди уже с сотню, и постоянно появляются новые. Хочешь прокачивать навык работы с ИИ - ты знаешь куда идти 😎
Серия моделей 4.1 (кодовое название Quasar Alpha):
— Модели предназначены для разработчиков
— Сильно дешевые
— Поддерживают контекстное окно до 1 миллиона токенов (наконец-то)
— Версия 4.1 следует инструкциям практически на уровне o3-mini, то есть очень хорошо
— Модели 4.1 доступны в размерах nano и mini: работают быстрее, но качество ниже
— Все разновидности модели 4.1 прекрасно ориентируются в контекстном окне и не теряют деталей документа, даже если использовать окно целиком
— Знания моделей актуальны по состоянию на 1 июля 2024 года
— За длинный контекст не берут больше денег 🥰
⚡️ Новый выпуск AIA Podcast уже онлайн!
Сегодня смотрим, что привез Google с Cloud Next — от Gemini Flash до Ironwood TPU, разбираемся в новых инструментах для разработчиков (Firebase Studio, A2A, ADK), изучаем прогресс OpenAI (мощная память в ChatGPT, $40B раунд и BrowseComp), радуемся образовательной версии Claude от Anthropic и вспоминаем про Llama 4 от Meta. Также в выпуске: Nova Act и Nova Sonic от Amazon, новые фичи GitHub Copilot от Microsoft, свежак от xAI и OpenRouter, Canva и Eleven Labs, тесты от NVIDIA и новости от WordPress.
А в конце вас ждём пересказ и комментарии к мрачнейшему документу, описывающему наше возможное будущее - "AI 2027".
👉 YouTube: https://youtu.be/Uojp1B6EDNE
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/108
ну вы прям либо очень большие позитивисты в ИИ (уважение!), либо мазохисты, товарищи :)
Читать полностью…📰 ТОП-4 новости из 46го дайджеста новостей ИИ в программировании
🔸 Google Gemini 2.5 Pro — «мыслящая» модель нового поколения
Новая модель от Google встроила логическое рассуждение прямо в архитектуру, показала топовые результаты в задачах программирования и поддерживает контекст до 1M токенов. Уже доступна даже в бесплатной версии Gemini.
🔸 MCP — общий язык для всех ИИ-инструментов
Протокол MCP становится универсальным интерфейсом для ИИ. Его внедрили OpenAI, GitHub, VSCode, Continue.dev и другие. Теперь разработчики могут синхронизировать агентов, плагины и IDE без боли.
🔸 Augment Agent — AI-кодогенератор нового уровня
Инструмент от команды Augment работает с огромными кодовыми базами, запоминает контекст, интегрируется с GitHub, Jira и Notion, и поддерживает MCP. Это серьёзная альтернатива Copilot и Cursor.
🔸 Llama 4 от Meta — опенсорс с безумным контекстом
Meta представила Llama 4 — две MoE-модели Scout и Maverick с поддержкой до 10M токенов. Открытый код, поддержка мультимодальности и работа даже на одной H100 делают их идеальными для локальных агентов.
👉 Полный дайджест (текст и аудио)
#aidigest
Есть "объегорился" слово, а есть "обвайбкодился" теперь. (с)Читать полностью…
В спорах рождается истина, говорили они: https://youtu.be/28XHyfZqUIM
Читать полностью…Браво, Qwen 3 30B MoE (gguf, 8bit) прошла тест на написание приложения про отскакивающий желтый мяч. Первая из запущенных на моем ноуте моделей, которая смогла это сделать!
4 минуты думанья, скорость аутпута восхитительная - 30 токенов в секунду, в 3 раза быстрее предыдущего любимца Qwen 2.5 Coder 27B 😊
Промпт: "write a code for a bouncing yellow ball within a square, make sure to handle collision detection properly. make the square slowly rotate. implement it in javascript. make sure ball stays within the square and bounced correctly by physics laws
"
⚡️ Новый выпуск AIA Podcast уже онлайн!
Сегодня ныряем в мир ИИ: обсуждаем горячие покупки OpenAI (Windsurf, собственная соцсеть, Codex в опенсорсе), новые модели GPT-4.1 и o3, амбициозные планы Anthropic по интерпретируемости и сознанию ИИ, свежие релизы от Google (Gemini 2.5 Flash) и Nvidia (производство ИИ-чипов в США), тестируем обновления в Grok и новых ассистентов от JetBrains и Docker, кайфуем от музыкальных возможностей DeepMind (Lyria 2) и видеоаватаров Character.AI, следим за революцией в кино с Runway и Fabula, изучаем первого в мире опенсорс-агента общего назначения Suna и погружаемся в законотворческие ИИ-эксперименты в ОАЭ.
Ну а в финале — мощнейший полный разбор со СПОЙЛЕРАМИ всех серий нового сезона «Чёрного зеркала», ведь каждая из них так или иначе про ИИ!
👉 YouTube: https://youtu.be/FihjelyaoEE
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/109
https://zencoder.ai/blog/zencoder-acquires-machinet - приятно, когда два хороших проекта объединяются😊
Зенкодеров поздравляю с хорошей покупкой, а Machinet ещё больших достижений в составе новой компании!
Очень крутое путешествие в замедление времени: https://youtu.be/Z2lXrqmBkP0
Никогда раньше не слушал Игоря Иванова, теперь буду 😊
📰 ТОП-4 новости из 48го дайджеста новостей ИИ в программировании
🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.
🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.
🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.
🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.
👉 Полный дайджест (текст и аудио)
#aidigest
Ну, теперь заживём: JetBrains наконец-то релизнули своего агентного кодописателя Junie: https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.
Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.
Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.
И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.
UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!
UPD: тот gpt-4.1, что завезли в Виндсерф, работает в разы хуже думающего соннета 3.7. Надеюсь там под капотом mini, и полная версия будет работать хотя бы на уровне соннета...
Мде, старый конь, как известно, чего-то там не портит.
UPD2: опении совсем подурели с неймингвми. Выкатили 4.1 и задеприкейтили 4.5, мол она старше и слабее... Видимо считают они до сих пор при помощи gpt 3.5 (4.1 > 4.5 и всё в этом духе)
Кстати, эта модель будет бесплатной для ВСЕХ пользователей Виндсерфа, целую неделю (втч фри). Курсор тоже выкатил её во фри на время. Глючит точно будет, но если жабка душит, то разбирайте за бесплатно 😊
Читать полностью…🚀 Сегодня День космонавтики, и у меня для вас подарок: новый выпуск подкаста "неРодина", в котором мы поговорили про Австралию, нейроморфные процессоры и космических роботов!
Гость выпуска, Миша Асавкин — бывший разработчик и продакт, а теперь космический предприниматель из Австралии, который делает космических роботов для починки спутников!
Попробуем разобраться в том, как можно без опыта, связей и денег в чужой стране всего за три с небольшим года собрать свой продукт — а потом ещё и запустить его в космос. Узнаем, откуда дедушка Миши знал Королёва, зачем в космосе нужны нейроморфные компьютеры и почему австралийцы считают пауков домашними животными.
Ключ на старт! Поехали! 🚀
👉 YouTube: https://youtu.be/0_EfWCCBpvE
👉 Apple Podcasts: https://apple.co/41hwOIQ
👉 Spotify: https://spoti.fi/3Ktbf1Y
👉 Скачать mp3: https://podcast.itbeard.com/e/ne_rodina-4
🔥 Запись митапа по CodeAlive - RAG над кодовой базой на максималках
На митапе Родион Мостовой и Иван Бирюк, СЕО и СТО CodeAlive, познакомили нас со своим продуктом, который с помощью качественного RAG умеет проводить глубокий анализ больших кодовых баз и выдавать ответы по ним. Если говорить просто, то CodeAlive — это веб-сервис, к которому вы можете привязать свой репозиторий и разговаривать с ним.
Кроме презентации самого продукта и его функций, мы поговорили о его внутреннем устройстве, о возможности запуска on-premise на локальных моделях, в целом о RAG'ах над кодовой базой, о планах на развитие проекта и будущем разработки с ИИ.
ЧТО ВНУТРИ
- Базово по RAG
- Презентация CodeAlive
- Юзкейсы CodeAlive
- Как эффективно обрабатывать большие кодовые базы через LLM
- Как замерять качество ответов?
- Про приватные инстансы и локальные модели
- Когда ИИ будет писать любой код под ключ?
- БОНУС ДЛя КЛУБЧАН
👉 Смотреть митап
#evo_воркшоп
https://youtu.be/XiwriW1ET-c - если вы думали, что чтение мыслей всё ещё сказка, очень рекомендую это недооцененное видео (117просотров на момент поста)
UPD: фантастика ближайших 10-15 лет начинается с 42ой минуты.
«Мы ожидаем от всех сотрудников навыков владения нейросетями», — гендиректор Shopify разослал сотрудникам письмо. Кратко о новой реальности:
🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.
🟢 Навыки промптинга появятся в перформанс-ревью Shopify.
🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭
Как бы вы отнеслись к такой новой политике в вашей компании?
🔥 — за
💔 — против
@xor_journal
🔥Буквально только что Meta наконец выкатила Llama 4 (ждали долго).
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
Хабр же всегда был токсичным пристанищем диназавров и им подражающих из эпохи форумов и указок по пальцам, ничего не перепутал?
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй единственная нормальная руязычная айтишная журналистика, из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
Вот смотрите, какая статистика: сегодня я часов 7–8 очень интенсивно кодогенерировал клубного бота (для Эволюции Кода) вместе с Курсором и самой мощной в нём моделью Claude 3.7 Max. Ставил ему задачи, рассказывал про примеры, архитектуры, указывал на ошибки и всё такое. Это было похоже больше на парное программирование с младшим сотрудником, но который схватывает твои указания с полпинка и имплементирует за пару минут, потом ещё десять минут сидишь, вычитываешь и диву даёшься, как оно всё красиво на этом вашем Go написало.
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?