Рекламный менеджер: @Spiral_Yuri 🤗 Все наши ресурсы - @qrcode 🗣 Реклама - @DeepAds Админ: @cocuc РКН: https://knd.gov.ru/license?id=676ab8a88e552d6b5416b887®istryType=bloggersPermission
🛡 Сбер выпустил модель киберугроз для ИИ-систем
Документ доступен на «Кибрарии» — охватывает все этапы жизни ИИ: от подготовки датасета до внедрения в прод.
Разобрано 70 угроз: которые ломают (конфиденциальность, целостность и пр.), какие объекты могут быть под ударом (датасеты, пайплайны, модели) и к каким последствиям это ведёт. Есть визуальная схема с компонентами.
✔ Подходит для любых отраслей — финансы, госсектор, промышленность. Можно адаптировать под свои задачи и выстроить систему защиты до инцидента.
• Подробнее
#neural #нейросети
@aiaiai
🎨 Кожаные отбирают работу у ИИ.
Художник нарисовал пикчу, которая выглядит как генерация, и одержал с ней победу в конкурсе ИИ-картинок.
Никто не заметил, что это не ИИ, и в итоге я выиграл.
🤔 А вот и пятничная разминка для мозга. Что думаете?
👍 — реальное видео
🔥 — сгенерированное
@aiaiai
🤣 Вы не готовы: какие-то гении сгенерировали гибрид той самой «Буханки» и «Кибертрака» — «Бухасла».
Маск, бери на вооружение 😁
@aiaiai
🎬 Как сгенерировать POV-видео с помощью ИИ.
Сейчас набирают популярность ролики от первого лица, например: Овечкин в день, когда забросил свою 895-ю шайбу, последний день рабочего в Чернобыле и др. Создать подобное видео можно в 5 простых шагов:
— Пишем сценарий видео. Придумываем сторителлинг из 5-10 сцен с завязкой, развитием и финалом. И не забудьте про цепляющий заголовок;
— Формулируем промпты для каждой сцены. Описываем максимально подробно, указываем технические параметры. Все промпты начинаем с "True first-person view... "
Например: A true first-person view. Hands hold a spherical white helmet labeled "СССР", arms enclosed in a pressurized suit. Ahead, a tall mirror reflects the full figure. In the background, two Soviet officers watch silently, softened by a shallow depth of field. Warm tungsten light flickers across beige tiled walls. Shot on an IMAX-certified ARRI camera, 35mm lens, f/1.8.
— Генерируем изображения. Можно использовать ChatGPT, Midjourney или любой другой генератор картинок. (Помните: в ChatGPT нельзя сделать изображения в 16:9 и 9:16, придется кадрировать их или дорисовывать);
— Анимируем полученные генерации. Поочередно оживляем каждую картинку в Kling или Gen-4. Достаточно сделать из каждого фото 5-секундное видео;
— Монтируем все видео в одно и добавляем озвучку. Звук в этом формате — половина атмосферы. Поэтому в идеале озвучить каждый вздох и шаг. Или подложить тематический звук, как в видео с Овечкиным, где он говорит на интервью, что никогда не побьет рекорд Гретцки.
Вселенная схлопнулась, интернет можно закрывать 😱
@aiaiai
🔍 Бесплатная нейросеть для поиска исследований.
Bohrium проводит исследование, основываясь на тысячах статей и курсов. По каждому запросу он дает саммари в отдельном окне, предлагает похожие исследования и отвечает на уточняющие вопросы по материалу.
Также тут можно найти: готовые курсы, уроки, чужие запросы и т.д.
Под капотом тут DeepSeek, поэтому по качеству ответы получаются примерно как у Grok, до ChatGPT пока не дотягивает.
• Попробовать
#нейросети #neural
@aiaiai
🎬 Google открыла генератор видео Veo 2 для подписчиков Gemini Advanced.
Пользователи могут создавать 8-секундные видео с разрешением 720p. Есть месячный лимит на создание роликов, но какой — не уточняется. При приближении к нему вас заранее предупредят 🤔
Также дали доступ к анимации изображений через Whisk. Это представленный в декабре эксперимент от Google Labs. Сервис вместо текстовых промптов использует 3 картинки: для субъекта, для сцены и для стиля.
🤩 По непроверенным данным оплата возможна с ру карты.
🤩Попробовать Veo 2 бесплатно можно в в AI Studio. Бесплатно можно сгенерировать от 3 до 5 роликов.
• Подробнее
• Попробовать Veo 2
• Попробовать Whisk
#нейросети #neural
@aiaiai
🐱 Слишком мило, чтобы быть реальностью.
👍 — это реальное видео
🔥 — сгенерированное
@aiaiai
🤖 Алиса научилась рассуждать
Яндекс представил самое крупное обновление за всю историю Алисы, и теперь это полноценный AI-ассистент. В режиме чата она умеет рассуждать, отвечая на вопросы с учетом более глубокого понимания контекста, обрабатывать файлы и фото, а также распознавать объекты через камеру смартфона.
Под капотом YandexGPT 5 Pro и мультимодальная нейросети Яндекса (Visual Language Model, VLM). Режим рассуждения работает пока в бета версии.
Прокачали GPT-функции Алисы и на устройствах. На ТВ Станциях голосом можно будет управлять любыми приложениями, даже теми, для которых раньше требовался пульт. И что особенно неожиданно – новая Алиса станет ко-пайлотом в играх на приставках, определяя в реальном времени то, что происходит на экране и помогая игроку с прохождением. Также анонсировали новые умные колонки, среди которых портативная Станция Стрит с зарядом до 12 часов.
@aiaiai
🎞 «Великая депрессия».
Атмосферный, динамичный и жестокий ролик, на создание которого ушло около 2 недель.
Создано с помощью: Flux, GPT, Midjourney 7, Kling, MiniMax, Runway Gen-4, Suno и Elevenlabs.
@aiaiai
😃 Ну наконец-то: Голливуд готовит ремейк на мемный российский сериал.
🔥 — такое мы посмотрим
@aiaiai
😮 Higgsfield научился комбинировать видеоэффекты.
Нейронка для генерации эпичных кинематографичных видео выпустила обнову — Higgsfield Mix. Она позволяет в одном видео совместить несколько эффектов и ракурсов, которые физически невозможно снять в реальности.
Бесплатно дают 25 кредитов. Генерация 5-секундного видео обойдется в 10 кредитов.
• Попробовать
#neural #нейросети
@aiaiai
👽 Невыдуманные истории, о которых невозможно молчать.
• Автор
@aiaiai
🕺 В сеть слили пятничный рейв тридцатилетних. Распространите.
Создано с помощью: Sora и Higgsfield.
• Автор
#подпИИсчик
@aiaiai
🎞 В видеогенератор Wan2.1 добавили ключевые кадры.
Теперь можно закинуть 2 референса, которые будут начальным и конечным кадрами будущего видео. Для этого:
— Заходим в AI Videos
— Image2Video 2.1Plus
;
— Врубаем Start/End Frames
;
— Загружаем фотореференсы и добавляем промпт (опционально);
— Получаем 5-секундное видео в разрешении 720p.
Нейросеть максимально точно воспроизведет ваши референсы, добавит плавный переход и правдоподобную физику.
Зарегистрированным пользователям каждый день дают по 50 бесплатных кредитов, а за одну генерацию придется отдать 10 кредитов.
• Попробовать
#neural #нейросети
@aiaiai
💃 Если ваша вечеринка не похожа на это, даже не пытайтесь меня приглашать.
@aiaiai
😮 Новый клип от The Dor Brothers как эталон работы с нейросетями.
@aiaiai
👀 Стильная и дерзкая. Такой «Матрицу» мы ещё не видели.
Некоторые правила можно обойти, некоторые можно нарушить. Например, гравитацию 🙂
@aiaiai
👍 OpenAI выпустили сразу две новые модели — o3 и o4-mini.
— o3
— самая мощная рассуждающая модель, которая умеет пользоваться всеми инструментами ChatGPT (генерация изображений и графиков, поиск актуальной информации, кода и т.д);
— o4-mini
— небольшая модель, но более быстрая. Сильные стороны: математика, код, визуальная инфа. Также имеет доступ к инструментам ChatGPT.
Пользователи ChatGPT Plus, Pro и Team смогут потестить модели уже сегодня, o4-mini будет доступна даже для бесплатных пользователей (выбираем режим «Think» перед отправкой запроса).
Плюс в ближайшие пару недель OpenAI обещали выпустить o3‑pro.
• Подробнее
• Попробовать
#нейросети #neural
@aiaiai
🍔 Герои из игры и сериала "The Last of Us" встретились в одном видео.
Так гораздо удобней сравнивать, насколько удачно подобраны актеры, правда ведь? 😁
@aiaiai
😃 Теперь мы знаем, как OpenAI придумывают названия новых моделей.
@aiaiai
😃 "Знакомьтесь, это Нина Петровна"
Создано с помощью: Wan 2.1, Sora и Hedra.
Давайте признаем, что мы все хотели бы такую работу 😎
• Автор
#подпИИсчик
@aiaiai
😮 Как насчет новостей из ближайшего будущего?
Выгоревшие нейронки ищут смысл существования, за промпт можно загреметь за решетку, а работяги-GPT меняют мир, обрабатывая бесконечные запросы.
Заслужили ли мы такой киберпанк? 😢
@aiaiai
💖 Мощный апдейт от Kling.
— Новая модель Kling 2.0 Master
поддерживает Text-to-Video и Image-to-Video, генерирует в 720p с максимальной длительностью видео — 10 секунд. Модель лучше понимает промпты, движения стали живее, а сцены — динамичней. За генерацию одного видео придется отдать $1.06 (100 кредитов).
— Multi-Elements (v1.6)
заменяет, удаляет или добавляет объекты в видео;
— Motion Control (v1.6)
анимирует персонажей по промпту или картинке;
— Новая модель генерации изображений Kolors 2.0
. Картинка стала качественней, ярче и стильней. Есть режим Restyle для смены визуального стиля, также есть inpaint и expand.
Потестить Kling 2.0 Master бесплатно не дают 😔
• Подробнее
• Попробовать (100 кредитов за 1 видео)
• Попробовать на Freepik ($1.3 за 1 генерацию)
• Попробовать на Fal AI ($1.4 за 1 генерацию)
#neural #нейросети
@aiaiai
🎨 Adobe представила ИИ-агента для Photoshop и Premiere Pro.
Она автоматически анализирует фото и предлагает рекомендации по их редактированию: удалить лишний объект, заменить фон, сделать цветокоррекцию и т.д.
Также фича предусматривает выполнение конкретных команд от пользователя.
Официальный анонс состоится на Adobe Max 24 апреля. Ждем ☕️
• Подробнее
@aiaiai
Несуществующие гибриды животных (к счастью 😃)
🤖 Наши ресурсы: @qrcode
@aiaiai