ну, ждём незначительные, мелкие (почти никому не нужные) обновления🫡
если я окажусь неправ - я буду рад (хотя бы научили песни петь в Advanced Voice Mode 🌚)
наткнулся на раритетное видео про нейронные сети 1960 года, интересно будет у какой нибудь нейронки (или AGI) через годик-два спросить, что она про него думает и узнать умеет ли она ностальгировать🤓 но мы умеем точно, теперь всё что было пол года-год назад уже кажется чем-то древним, вспомните gpt-3, а ведь шуму навёл в своё время ;)
https://www.youtube.com/watch?v=kMinx0LQBdk
и сразу ещё одно классное про Теорему Ферма и дьявола (если что в 1994 году британский математик Эндрю Уайлс завершил доказательство, работая над ним более семи лет. Это стало одним из самых известных событий в математике XX века. Доказательство оказалось крайне сложным и связано с современной теорией эллиптических кривых и модулярных форм)
P.S.
Эти видео, ничем не хуже серий чёрного зеркала, вот бы ремейк потом сделать🌚
А что там с квантовыми вычислениями и фотонными чипами? А вот✨
Ученые из Университета Бирмингема впервые создали первое в мире изображение формы фотона, разработав теорию взаимодействия света с материей. Это открытие устраняет неопределенности в моделировании фотонов и открывает путь к развитию нанофотонных технологий, улучшению сенсоров, солнечных батарей и управлению химическими реакциями. Параллельно компания PsiQuantum, привлекшая более 1 миллиарда долларов инвестиций, использует фотоны для создания квантового компьютера с миллионом кубитов к 2027 году. Это устройство, устойчивое к ошибкам, будет способно решать задачи, недоступные классическим системам. Технология PsiQuantum опирается на инновационные чипы, сочетающие традиционные оптические компоненты с новыми элементами. Эти достижения в фундаментальной и прикладной науке ускоряют переход к эре фотонных вычислений и технологий🌟
Манифест Google DeepMind✨
Тихая революция набирает обороты в лабораториях по всему миру: учёные всё чаще используют ИИ. Каждый третий исследователь после защиты диссертации применяет языковые модели для анализа литературы, программирования и редактирования. В октябре создатели системы AlphaFold 2, Демис Хассабис и Джон Джампер, получили Нобелевскую премию по химии за прогнозирование структуры белков с помощью ИИ, наряду с Дэвидом Бейкером за проектирование новых белков. Эти достижения скоро ощутит общество: лекарства и материалы, созданные с помощью ИИ, уже проходят разработку. Впереди – масштабные научные прорывы.
https://deepmind.google/public-policy/ai-for-science/
Ну вы поняли🌚 Похоже до крупных релизов Google и OpenAI решили выдавать каждые 2 дня небольшие улучшения текущих версий своих моделей🤷♂️
Ну что остаётся, пробуем👌
Горячая пора на релизы продолжается🔥 и снова Китайцы:
Китайская лаборатория DeepSeek представила модель R1-Lite — бесплатного конкурента o1, который вскоре будет доступен в опенсорсе. По тестам она приближается к o1-preview, а в некоторых задачах даже превосходит её. R1-Lite эффективно использует длинные размышления, что улучшает результаты. DeepSeek обещают опубликовать API, опенсорс-код и детальный технический отчёт о тренировке.
Важно: это лишь "облегчённая" версия, чтобы протестировать технологии перед созданием полноценной R1. Попробовать модель можно бесплатно на сайте DeepSeek, активировав режим «Deep Think».
И по слухам OpenAI на днях релизнет полноценную o1🌚
Оказывается Mistral может не тока в вебе искать, а ещё и canvas как в ChatGPT и Artifacts как в Claude запускать, надо на первую иконку с файлом нажать ✨
Читать полностью…Google выкатили пощупать новую экспериментальную модель Gemini exp 1114, которая сразу же стала лидером на чат-бот арене ✨
Пробуем тут с VPN USA https://aistudio.google.com/app/u/3/prompts/new_chat
Лимит контекста пока 32к токенов
Подходил к концу 2024 год и я решил пройти... Скайрим✨
Но к нему я прикрутил локальную LLM Mistral 7b и простенький синтезатор голоса, так что моих 8gb видео с лихвой хватает для полного погружения (я думаю хватит и 4, Мистрал совсем нетребовательная, хотя по бенчмарку Language Understanding на уровне gpt 3.5👌) и бесконечного общения с любым NPC🫶 Можно добавлять в беседу сразу несколько человек (начало диалога грузит чуть дольше), просить выполнить простейшие действия и узнавать детали квеста, как в моём разговоре меня попросили найти должника в таверне, что по итогу приведёт к настоящему квесту и это всё локально и бесплатно🤯 Я теперь буду отслеживать опенсорс модельки, но уже этой хватает чтобы взрывать мозг и по настоящему погружаться в игру🧙♀️
Так можно и новый формат прохождений начать на YouTube 🤔 попробую потом улучшить мод, чтобы больше функций было у нпс и русский прикручу🌚
P.S.
Попробую перезалить в лучшем качестве видео
Скульпторам ничего не грозит говорили они.. Понятно, что ручной труд и опыт ничто не заменит, но как бизнес модель где можно штамповать изваяния на продажу очень даже сработает 🤓
Читать полностью…Итак, выборы прошли и сразу посыпались новые модели ✨
Кто-то уже получил предварительный доступ к Gemini 2 и ходят слухи о скором релизе🔥
И на LLM арене сразу 3 новые модели Gemini test, big-engine, blueberry👌
эмм оказывается в Google AI Studio совершенно без помпы вчера добавили новую функцию Grounding (обоснование), которую ещё и настроить можно вручную, которая снижает галлюцинации модели используя поиск Google при необходимости (решает сама когда подкреплять ответы) и естессна с выдачей ссылок на источники👌
Например:
Низкая потребность в обосновании: Для запроса вроде «Напиши стих о пионах» модель не обращается к Google, так как её знаний достаточно.
Средняя потребность: Для рецепта, как «Азиатский гуакамоле», модель может обратиться к Google, если порог настроен низко.
Высокая потребность: Для актуального запроса, например, «Кто выиграл последний этап Формулы-1?», модель обязательно подключится к Google для проверки свежих данных.
В целом всё это есть в ChatGPT, но тут более тонкая настройка и как бы Google больше пока доверяю в вопросах поиска 🧐
Немного новинок ai-видео индустрии, может пора ai-кинотеатр открывать? 🎬
Кстати, Цукенберг реально наблюдает за вами пока вы залипаете в ленте fb и инсты 👁
Титан глубин, синий кит🐋❤️
Могут достигать 30+ метров в длину и живут до 100 лет, а ещё у каждого кита свой уникальный узор на хвосте подобно отпечаткам пальцев у нас, человеков, а ещё интерсно, что в отличие от многих современных млекопитающих синие киты только увеличились в размерах за 30 млн лет эволюции (их предки, Усатые киты были в 3 раза меньше)🤓 мне иногда кажется, что мы вообще гости на этой планете, а не часть этого всего прекрасного 🌚
Ну полетели 💫 Новый стартап Misa AI, который (по их словам) достиг уровень gpt o1 и даже в чем-то перегнал, пробуем тут https://kpu.maisa.ai/play
Читать полностью…Команда Qwen представила QwQ32B (Qwen with Questions) — экспериментальную ОТКРЫТУЮ модель, которая ставит под сомнение привычное понимание ИИ. QwQ стремится глубже понимать окружающий мир, исследуя каждую задачу через размышления и самопроверку.
Модель демонстрирует значительные успехи:
GPQA: 65,2% — сложные научные задачи;
AIME: 50% — решение задач по математике;
MATH-500: 90,6% — глубокие математические знания;
LiveCodeBench: 50% — решение реальных программных задач.
QwQ ещё на пути развития: она совершенствуется в языке, избегает циклов в рассуждениях и адаптируется к сложным задачам. Эта модель открывает новые горизонты для аналитики и решений, двигаясь в сторону ИИ будущего.
https://qwenlm.github.io/blog/qwq-32b-preview/
Короче эпик, открытая модель 32B уровня gpt o1, что ждёт нас дальше?
Sora от OpanAI слили свои же сотрудники в сеть, в интересные времена живём🤷♂️
https://x.com/legit_rumors/status/1861431113408794898?t=d8HFeYyJS25G65IKnFEBZw&s=19
https://huggingface.co/spaces/PR-Puppets/PR-Puppet-Sora - уже не открывается, но скачать то успели, будут распространять👌
вот уже видосики успели нагенерить (ну и под постом в твиттере их много)
https://streamable.com/pi1tq9
https://streamable.com/tx9orh
https://streamable.com/626t9r
Google как-то без шума представили LearnLM, семейство моделей ИИ, основанных на Gemini и разработанных для обучения. LearnLM применяет принципы обучения, такие как активное вовлечение, управление когнитивной нагрузкой и адаптация к ученику, в продукты Google, включая Поиск, YouTube и Gemini. В Поиске появится возможность упрощать сложные темы, а в YouTube – задавать вопросы во время просмотра образовательных видео. Gemini получит «коуча по обучению» для пошагового руководства🎓
Протестить можно в AI studio (с VPN) ну и не забываем про отдельный сервис Learn About, обучение никогда не будет прежним👌
Mistral, французский стартап, представил Pixtral Large — мощную мультимодальную модель с 124 миллиардами параметров. Она сочетает текстовый анализ и обработку изображений, превосходя конкурентов в таких задачах, как распознавание текста (OCR), анализ графиков и документов. Контекст 128к токенов.
Модель доступна бесплатно на Hugging Face для исследований (с ограничениями лицензии Mistral Research License). Для коммерческого использования необходима лицензия или доступ через API на платформе Mistral.
Попробовать можно в чат-боте Le Chat (ещё один бесплатный чат без впн уровня GPT4o🌚) Mistral активно укрепляет позиции на европейском рынке искусственного интеллекта👌
Просто, чтобы оценить скорость прогресса в LLM-сфере за последние 2 года: китайская моделька Yi-Lightning, которая занимает 6 место на арене, была обучена на 2000 графических процессоров и при бюджете в $3 млн🤯 тогда как OpenAI потратили на GPT-4 (которую Yi-Lightning обходит) от $80 до $100 млн.. Санкции, похоже только стимулируют Китай на инновации и оптимизацию вычислений, благодаря которым они и добились таких результатов (как и в недавней Qwen 2.5) В общем вопрос, кто достигнет AGI первым и каким способом, остаётся открытым🌚
Читать полностью…Если вы пропустили, то вчера вышла новая моделька Qwen 2.5 coder на 32b параметров, ну и она пишет код на уровне gpt4o🤯 для неё хватит и 16gb видео, а 14b и 7b, которые недалеко по бенчмарку ушли вообще на коленках можно запускать, this is big! 🔥
Опенсорс так скоро догонит и reasoning, как в o1 от OpenAI 🌚
https://huggingface.co/Qwen/Qwen2.5-Coder-32B-Instruct
Кажется, OpenAI достигли потолка scaling law.
The Information (от них последнее время приходит много интересной информации) поделились неутешительными новостями о следующей LLM от империи Альтамана.
С одной стороны, o1, пройдя всего 20% тренировки, уже достиг уровня GPT-4. С другой — источники в OpenAI говорят, что следующая модель хоть и обещает быть лучше предшественника в целом, но «не надежно лучше своего предшественника». Именно поэтому обсуждается смена парадигмы нейминга. Чтобы справиться с вызовами скейлинга, OpenAI создали специальную команду — foundation team. Похоже, мы можем не дождаться ChatGPT-5. o1, конечно, выглядит перспективно, но это всего лишь один из примеров смены направления развития.
Как видно из успеха o1, следующий шаг в развитии LLM-моделей лежит не в увеличении объема данных (их, кстати, уже не хватает — в датасете уже куча синтетики), а в поиске новых подходов к скейлингу. Один из таких подходов — это chain of thought, который по сути получает прирост в качестве за счет скейлинга количества компьюта во время инференса.
Еще одно важное направление — это агенты. Антропик уже продемонстрировали computer use, так что ответ от OpenAI не заставит себя ждать (как минимум еще во время презентации 4o gpt-ишка смотрела на экран юзера). Правда, точных дат нам не называют, и это, возможно, к лучшему — не хотелось бы снова ждать полгода, как это было с voice mode после первого анонса.
И да, Orion ожидается early next year, что на языке OpenAI это может означать период с января до середины июля :)
@ai_newz
Тут для современных моделек представили новый математический бенчмарк Frontier Math, который включает задачи, на решение которых у профессионалов уходит несколько дней. Современные модели справляются менее чем с 2% задач, несмотря на доступ к Python и большому количеству токенов. Для создания задач привлекли более 60 математиков, включая обладателей 14 золотых медалей IMO и одной Филдсовской премии.
Задачи оригинальны и требуют значительной работы, чтобы ответ не был угадан случайно. Подготовка к новым моделям идёт полным ходом, интересно будет пообщаться с ИИ (AGI) который рвёт этот бенчмарк в клочья (и почувствовать себя умственно отсталым🌚)
Я вообще тут подумал, что в какой-то момент выход каждой новой модели ИИ в массы будет больше пугать, чем восхищать, будем ещё топить за замедление темпа🫥
Я тут спросил Gpt 4о про апдейты выборов президента США, а мне предложили протестить новую модель о1🌚 Думаю, после выборов начнётся пора релизов различных AI чудес✨
Читать полностью…Пишут по этой линке уже доступна модель ChatGPT o1
https://chatgpt.com/?model=o1
Для платных подписок и по идее с десктопа надо
В общем точно скоро релиз раз такое дело и скорее всего после вторника, то есть выборов в США 🌚
UPD
Уже недоступна⛔️ но всех кто заюзал успела впечатлить
Видимо Google после успеха notebook LLM решил релизить необычные ИИ - сервисы, на этот раз — Learn About, который сделает погружение в любую тему интерактивным иии глубоким 🌚
Буду тестить позже, пока оставлю вам, выглядит интересно ✨
Не забывайте про VPN USA