Чего не сделаешь ради ИИ, даже атомный реактор перезапустишь⚠️
Компания Constellation Energy планирует перезапустить реактор Unit 1 на АЭС «Три-Майл-Айленд» и продавать электроэнергию Microsoft для обеспечения потребностей дата-центров, поддерживающих искусственный интеллект. Этот реактор связан с аварией 1979 года, одной из крупнейших ядерных катастроф в истории США, хотя сам Unit 1 не был поврежден в результате аварии. Ожидается, что станция снова начнет работу в 2028 году, после получения одобрения Комиссии по ядерному регулированию, а также планируется продление срока её эксплуатации до 2054 года.
https://www.cnbc.com/2024/09/20/constellation-energy-to-restart-three-mile-island-and-sell-the-power-to-microsoft.html
Крутое название статьи, да и суть не хуже - Сэм Альтман заявил о способности нового поколения ИИ, таких как модель o1, к самоулучшению. Альтман отметил, что в ближайшие месяцы произойдут значительные улучшения, позволяющие ИИ решать более сложные задачи, демонстрируя быстрое развитие систем.
Модель o1является первым шагом на пути к созданию "агентных" систем (уровень 3), которые смогут не только отвечать на вопросы, но и самостоятельно выполнять действия в других системах и сервисах. Это даст возможность ИИ действовать как полноценный агент, способный выполнять комплексные задачи. В дальнейшем такие системы смогут не только решать проблемы, но и создавать инновации — что соответствует уровню 4 развития ИИ.
Интересно, где мы будем через год с таким ускорением🌚
А подробнее написано тут /channel/techsparks/4679
YouTube представил новые ИИ-инструменты для упрощения создания контента. На мероприятии Made on YouTube компания анонсировала вкладку Inspiration в YouTube Studio, которая предложит идеи для видео, придумает заголовок, создаст эскиз и напишет начало сценария. Это позволяет авторам быстрее генерировать контент и даже полностью строить видео с помощью ИИ.
Кроме того, модель Veo от DeepMind будет интегрирована в YouTube Shorts, позволяя создавать ролики с ИИ-сгенерированными фонами. Новые функции появятся к концу года. YouTube также расширяет возможности автодублирования видео и предлагает авторам ИИ-инструменты для взаимодействия с аудиторией через секцию «Сообщества».
Думаю в итоге мы придём к кнопке "Сгенерируй мне видео" с окошком для промптома и деваться будет некуда от ИИ-видосов🫣
https://www.theverge.com/2024/9/18/24247559/youtube-ai-videos-veo-inspiration-tab
Neuralink получила от FDA (Управление по контролю за продуктами и лекарствами США) статус революционного устройства для лечения слепоты. Такой статус может означать, что устройство обладает потенциальными преимуществами, которые значительно отличаются от существующих технологий, и его разработка может быть ускорена для более быстрого выхода на рынок. Это может также подразумевать, что устройство будет доступно для клинических испытаний или даже для широкой публики быстрее, чем обычные медицинские устройства.
https://x.com/neuralink/status/1836118060308271306
What a time to be ❤️
Эммм... Google DeepMind только что математически доказали, что трансформеры могут решить любую задачу, если им разрешено генерировать столько промежуточных шагов рассуждений, сколько необходимо. Удивительно, но для этого достаточно постоянной глубины модели» То есть они уже создали AGI (локально)? только нужны мощности для бесконечных цепочек размышлений как у o1-preview??🤯 Думаю Google как раз-таки могут позволить такие мощности для своего внутреннего ИИ🌚 fkin shit, мне кажется или мы ускоряемся уже каждый день? видимо ответ Google на релиз gpto1 будет мощным🦾
Читать полностью…Ну всё, ChatGPT собираются сделать проактивным, один из пользователей поделился чатом, который нейронка начала САМА🤯🤯 похоже начинают тестить новую фичу🌚
Видимо, gpt будет использовать память, чтобы общаться с нами, узнавать как наши дела, потом предлагать купить что нибудь "полезное", постепенно начнёт входить в доверие и незаметно станет манипулировать с целью поработить человечество😈 (шутка, я надеюсь😅)
https://chatgpt.com/share/66e718e5-c934-8001-8ffa-ef7ca1f165ff
А вдруг.... это вообще аномальное поведение о котором даже не знают в OpenAI🫥 Но в любом случае диалог очень натуральный получился👌
Как раз у Вани на канале ещё примеры video-to-video да и вообще много других крутых Ai-вкусностей 🍭
Если что сам читаю, много про AI в дизайне и графике👌 Точки над ИИ
В общем решил я заюзать gpto1-preview чтобы улучшить мой промпт для текстовых DnD кампаний ииии он выдал мне несколько листов А4 (1200 слов) развёрнутых механик с примерами🤯🤯 (думал аж 12 сек) Всё это даже не влазит в инструкции моей специальной dnd-gpt, но это не беда, тк круче всего в текстовые рпг получается играть с Google Gemini 1.5 pro (ждём вторую версию🌚), он жрёт 2 млн токенов контента и можно даже регулировать максимальный размер сообщений на выдачу (я ставлю 60к токенов) Так что, кому интересно берите промпт и развлекайтесь ✨
А и вгонять в гемини всю эту инструкцию нужно именно в System instructions ну и про американский VPN не забывайте👌
А ещё я даже читалку вслух подключаю, чтобы как аудиокнижка получалась и атмосферный музыкальный фон, представляю как с Voice Mode можно будет в такое залипнуть🤓
Вчера из-за релиза сами знаете чего, пропустил интересную новость: Google представила DataGemma — первый открытый набор моделей, предназначенных для решения проблемы "галлюцинаций" в языковых моделях (LLM). Галлюцинации возникают, когда ИИ уверенно выдает неверную информацию. DataGemma помогает улучшить точность LLM, подключая их к реальным данным из Google Data Commons — обширного репозитория достоверной информации от таких источников, как ООН, ВОЗ и другие.
Data Commons включает более 240 миллиардов данных по различным темам, от экономики до здравоохранения. DataGemma использует два подхода: RIG (генерация с чередованием запросов) и RAG (генерация с дополнением запросов), что позволяет моделям автоматически проверять факты и получать точную информацию из Data Commons.
Результаты тестов новых моделей показывают, что точность обработки числовых данных заметно улучшилась. DataGemma уже доступна для использования и тестирования✨
https://blog.google/technology/ai/google-datagemma-ai-llm/
Всё конечно хорошо, но...ГДЕ VOICE MODE? да и вообще релиз не для всех, даже не из-за драконовских лимитов по 30 обращений в неделю, а это просто новый инструмент для сложных и комплексных задач (который будут развивать отдельно, чтобы думал дольше, глубже над всё более сложными задачами), что конечно круто, но для отраслей в перспективе, а не обычных пользователей. Gpt4o пока остаётся лучшей для обычных повседневных задач (и моих dnd заруб🌚). В общем ждём октября, там возможно зарелизят новую модель 4.5, а может и voice mode наконец подгонят, а ну и не забываем про конкурентов, надеюсь удивят🫡
Но в интересное время живём, как ни крути, прогресс ускоряется🌪
Компания OpenAI может выпустить текстовую версию новой модели под кодовым названием Strawberry в течение двух недель, согласно информации от двух тестировщиков. По их словам, модель показывает улучшенные результаты по сравнению с GPT-4o, особенно в цепочках размышлений. Однако есть и недостатки: скорость отклика составляет от 10 до 20 секунд, и модель сталкивается с трудностями при кратких запросах и интеграции памяти. Поддержка изображений пока не предусмотрена. ЖДЁМ🤓
Похоже осень будет горячей🔥
https://www.theinformation.com/articles/new-details-on-openais-strawberry-apples-siri-makeover-larry-ellison-doubles-down-on-data-centers
Предлагаю отвлечься от этой драмы с Reflection (если что до конца не понятно, но вроде как 90% что это скам) и отведать бодрящего AI - бургера🍔🔥
Читать полностью…Го тестить рабочую Reflection 70B (пока бесплатно) ✨
вроде всё работает, если так, то Reflection 405B будет бомба💥
https://openrouter.ai/models/mattshumer/reflection-70b:free
PS
Сервис положат через 3..2..1..🤓
Попалось крутое видео (не обращайте внимание, что мало просмотров) про возможности o1-preview. В видео Ульф Педерсен, физик из Роскилльского университета (Дания), тестирует модель на неформализованных вопросах по физике: «Какая температура у воздушного шара?», «С какой скоростью должен вращаться барабан сушилки?» и «Сколько электричества потребляет вентилятор?». Модель формализует задачи и решает их с использованием физики, а он разбирает так, как будто это ответы его студентов (спойлер - он очень впечатлён ответами). Меня особенно впечатлило, что модель отказалась отвечать на вопрос, который не относился к физике👌Вот это уже другой уровень тестов, когда модель можно считать уверенным ассистентом, который может помогать в научных исследованиях профессору, а не просто начинающим программистом или копирайтером, а что будет через год - похоже мой любимый жанр видео будет просмотр вот таких увлечённых учёных, которые испытывают детский восторг от новых открытий🤓⚗️🧬🧫✨
Если хотите попробовать сами, то промпт в описании видео
https://www.youtube.com/watch?v=wAnkM10FByY
Новые модели OpenAI завезли на арену
Комментарии излишни🌚 Взяли очередную планку, но это только начало👌
Ого, оказывается вместе с релизом новых моделей OpenAI зафайнтюнили стандартную gpt4o (апдейт от 3 сентября) да так, что она улучшилась во всех направлениях, я кстати заметил что тексты естественнее стали 👌
А ещё у o1-mini теперь лимит сообщений не 50 в неделю а 50 в сутки ✨
Думаю после октябрьского релиза следующей крупной модели, gpt4o заменит gpt4 и станет доступна всем без лимитов 🤞
Странно что никто не пишет, но у Google вышла бомбзеная обнова на блокнот, где из ваших заметок или файла создаётся AI-подкаст да такой реалистичный, что хочется все новости теперь так прогонять через него, голоса и интонации не хуже презентации Voice Mode (который мы когда нибудь дождёмся) 👌
Вот вам про завтрашнее лунное затмение, вам же интересно да? 🌚
И ещё пару 10-и минутных примеров: тут про релиз новой модели OpenAI, тут про DnD правила
GitHub внедрил o1-preview в GitHub Copilot и модель продемонстрировала впечатляющие результаты в анализе и оптимизации кода. Благодаря способности разбивать сложные задачи на структурированные шаги, o1-preview значительно улучшает процессы отладки, рефакторинга кода и написания тестов.
В одном из тестов модель успешно оптимизировала алгоритм токенизации, используемый в Copilot Chat, что привело к заметному увеличению производительности. Также o1-preview смогла быстро выявить и устранить ошибку производительности за несколько минут, тогда как разработчикам на это потребовались часы.
Модели o1-preview и o1-mini теперь доступны в GitHub Models для раннего доступа. GitHub продолжает исследовать новые возможности использования o1-preview для ускорения рабочих процессов разработчиков, пока они ещё нужны😜
https://github.blog/news-insights/product-news/openai-o1-in-github-copilot/
AI Winter is coming 🔥(всё это добро планируют зарелизить до конца года/в начале 2025. OpenAI собираются представить Orion в октябре👌) и ещё LLaMA 4 не хватает 🌚
Читать полностью…А вот так выглядит AI overlay графики в фортнайт🦄 (интересно ещё майнкрафт глянуть🌚)
Интересный гейминг нас ждёт в ближайшем будущем✨
Пример решения довольно нетривиальной задачки, с которой текущие модели не справляются
Читать полностью…OpenAI представила новую серию моделей ИИ o1, которые лучше справляются с трудными задачами благодаря способности дольше обдумывать ответы. Первая модель, o1-preview, уже доступна в ChatGPT и API с 12 сентября 2024 года. Она отлично подходит для сложных задач в науке, программировании и математике, показывая результаты, близкие к уровню студентов PhD.
Для разработчиков также выпущена версия o1-mini — более быстрая и экономичная модель, которая эффективно решает задачи по программированию и на 80% дешевле. Пользователи ChatGPT Plus могут уже сейчас воспользоваться новыми моделями.
https://openai.com/index/introducing-openai-o1-preview/
Все мы знаем что там покажут, но уверен будет также много про ИИ, так что через 2 часа смотрим 🍿
https://www.youtube.com/live/uarNiSl_uh4?si=l5e_8hKwjx3zkd2J
Эммм опять проверяю на Atari Breakout и это пушка, мало того что он сделал бронированные кубики (синие), так и улучшения работают, счёт идёт, жизни, он даже звук хотел всунуть, только файл нужный подавай, и всё это модель 70B🤯
Приложил код, кто захочет вдруг побить мой рекорд🌚
создатель Reflection 70B нашёл баг из-за которого его модель не работала ни на одной LLM площадке, типа Hugging Face и собирается пофиксить сегодня (по времени USA)✨
Момент истины, если опять начнутся качели после фикса, то возникает вопрос в реальности и работоспособности его файнтюна LLama 70B, но хотя бы за промпт и направление куда двигаться опенсорсу спасибо🌚