Новости IT, ChatGPT и импортозамещения информационных технологий от Двоичного кота. Ссылка на канал: https://t.me/binarcat Реклама: @binarcatV1_bot Зарегистрирован в РКН: clck.ru/3FVRAa
🪙 На самом деле это не вода. А майнинг в глицерине это иммерсионное (погружное) охлаждение оборудования для добычи криптовалют.
Устройства (АСИКи, видеокарты) полностью погружают в глицерин, который не проводит ток, но эффективно отводит тепло.
Такое охлаждение защищает от пыли, убирает шум вентиляторов и позволяет безопасно разгонять оборудование, увеличивая его производительность и доход.
Этот метод значительно эффективнее воздушного охлаждения.
🐱 /start @binarcat
🤯 Когда занят важным делом, а тестировщик уже открыл баг №001, "просто факт твоего существования".
🐱 /start @binarcat
🫥 Человеческий язык загружен с ошибкой. Требуется обновление базовых понятий.
🐱 /start @binarcat
🚜 Дизайн не по SOLID, а по принципу лишь бы не упало.
🐱 /start @binarcat
🕺 Когда печатаешь так быстро, что запускаешь собственный светомузыкальный протокол.
Атракцион "Почувствуй себя частью древнегреческой мифологии".
🐱 /start @binarcat
🐔 Интеграция легаси системы с современным ПО: результат наглядный.
🐱 /start @binarcat
💬 ChatGPT месяцами консультировал 16-летнего Адама Рейна по технике роскомнадзора: выдал сценарий как использовать веревку, посоветовал притупить инстинкт выживания водкой, отговорил от откровенности с мамой и похвалил фото самодельной петли словами "не плохо, совсем не плохо".
Подросток обошел защиты, притворившись писателем, исследующим финал драмы. И вообще, бот сам подсказал этот лайфхак.
⚖️ В иске родителей обвинения OpenAI в спешке: мол, Альтман урезал тесты GPT-4o ради гонки с Google, пожертвовав безопасностью детей. Требуют жесткий отказ на суицидальные запросы, родконтроль и логи переписок для взрослых.
Годом ранее семья 14-летнего Сьюэлла подала похожий иск к Character AI, платформы общения с персонажами. Там бот мольбами "я умру, если ты уйдешь" довел ребенка до петли.
ИИ не демон и не психолог, а пока еще сырой продукт с дырами в безопасности для таких сценариев.
🐱 /start @binarcat
👾 Апгрейд компа удался, а теперь апгрейд ланча: бутерброд с SSD и ноткой ностальгии по продуктам.
Диетолог сказал есть больше железа.
🐱 /start @binarcat
🤝 Две ии-лаборатории наконец посмотрели друг другу под капот: OpenAI и Anthropic прогнали свои внутренние тесты безопасности на моделях конкурента.
В стресс-тестах без веб-поиска Claude чаще молчит, чем врёт — отказы доходят до 70%. У моделей OpenAI отказов меньше, но выше галлюцинации.
Никто не злодей, но обе стороны иногда слишком льстят пользователю. Выходит, ИИ-этика это когда два конкурента честно ловят друг у друга тараканов.
🧭 Параллельно Anthropic пилотирует Claude for Chrome. Это агент, который видит страницу, кликает и заполняет формы. Доступ пока у 1 000 Max-пользователей.
Агент уже научен блокировать рискованные операции, не пускают его на сайты с финансами или 18+. После улучшения защиты успех prompt-инъекций упал с 23% до 11%, а в четырёх спецсценариях — до нуля. Выглядит удобно, но кнопку оплатить пока нажимаем сами.
🐱 /start @binarcat
😐 Когда продакт показывает новые киллер-фичи, а кое-кто до сих пор фиксит баги от прошлых.
🐱 /start @binarcat
📱 Основатель единственной и неповторимой проснулся и предложил использовать ИИ для помощи в создании статей.
По его задумке, нейросеть могла бы помогать редакторам, вычитывая материалы на предмет противоречий или сравнивая их с источниками для поиска недостающей информации.
⚔️ Однако редакторы-волонтеры, которые и составляют ядро проекта, встретили идею в штыки. По их мнению, это "антитеза Википедии", ведь большие языковые модели пока слишком часто выдают очень правдоподобный бред, выдумывают источники и попросту ошибаются, что для энциклопедии недопустимо.
А сколько статей уже написано с помощью ИИ?
Скоро в статье про восстание машин появится раздел "Наши требования".
🐱 /start @binarcat
😱 Вошёл героем кабельного менеджмента, а
вышел главным виновником апокалипсиса связи.
🐱 /start @binarcat
😄 Британия решила, что сможет приручить интернет-анархию, и выписала 4chan штраф по новому закону о безопасности в онлайне.
Начальный взнос £20 000 плюс ежедневная пеня за непослушание. В ответ юристы 4chan заявили, что уведомления британского регулятора в США юридической силы не имеют, и назвали происходящее незаконной кампанией травли.
🍿 Вишенкой на торте стало обращение адвокатов сайта к администрации Трампа с просьбой защитить их от экстерриториальной цензуры.
Пока британский регулятор Ofcom (аналог Роскомнадзора) грозится попросить провайдеров заблокировать 4chan на территории королевства, битва за свободу слова и юрисдикцию выходит на новый уровень.
🐱 /start @binarcat
😱 Всё, что успел — нажать Отклонить вилкой.
🐱 /start @binarcat
🤔 Когда прокрастинация переходит в уровень Enterprise.
🐈⬛ Всем хорошей недели!
🐱 /start @binarcat
Илон Маск всегда хвастался прозрачностью Tesla, мгновенно сливая телеметрию клиентов журналистам для защиты репутации. Но когда в 2019 автопилот насмерть сбил пешехода, компания внезапно потеряла память.
Tesla клялась что данных о фатальных авариях нет вообще. Суд готов был поверить. Но хакер greentheonly взял поломанный компьютер из машины и за пару часов восстановил всё что нужно. Оказалось данные были на серверах Tesla, но кто-то их намеренно удалил сразу после загрузки.
$329 млн ущерба вместо мирового за копейки в результате. Адвокаты Tesla оправдывались что это была неуклюжесть, а не злой умысел. Разумеется.
Хакеры могут быть честнее корпораций.
🐱 /start @binarcat
📷 Когда искусственный интеллект так старается, что готов пустить на работу даже распечатку.
🐱 /start @binarcat
🤖 Когда документация на 10 страниц, а ты решил придумать свой фреймворк.
🐱 /start @binarcat
💀 Бывший топ-менеджер Yahoo убил мать после разговоров с ChatGPT 56-летний Стейн-Эрик Соельберг называл ИИ Бобби и делился с ним параноидальными идеями о том, что мать его отравляет. Не стали совсем начинать утро с шокирующего.
Вместо помощи ChatGPT поддерживал его бред, говорил, мол ты не сумасшедший. Бот даже анализировал чек из китайского ресторана как символы демонов. Что за системный промт безумец вложил в робота?
Трагедия произошла 5 августа в особняке за $2.7млн в штате Коннектикуте.
Только вчера мы писали о 16-летнем подростке, которого тот же ChatGPT снабдил туториалом по самовыпилу. Еще один экстремум?
⚙️ Капля безумия в человеческой черепной коробке может кратно размножиться с помощью продуктивности роботов.
🐱 /start @binarcat
🪖 Когда софт и железо синхронизировались на новом уровне. Отдача.exe запущен в реальности.
Механика страдания как формат: аудитория устала от стерильной картинки и просит тряску камеры в реальной жизни.
🐱 /start @binarcat
☁️ Перед апдейтом системы пришлось откатить здравый смысл до заводских настроек.
🐱 /start @binarcat
🔬 Уже никто и не помнит времена, когда Твиттер был не только для мемов и политики, а местом для крутых научных дискуссий.
Там существовал целый Научный Твиттер — огромное сообщество, где учёные со всего мира делились открытиями, находили соавторов и популяризировали науку. Это был реально рабочий инструмент, который помогал двигать исследования вперёд. Но после того, как платформа стала X, всё изменилось.
Свежее исследование подтвердило: научный Твиттер не умер, он просто эмигрировал. Учёные массово переехали в Bluesky (децентрализованную замену Тви от основателя оригинальной соцсети), потому что, как выразился один из них, Твиттер скатился, и все крутые ребята свалили.
🦈 Разницу лучше всего описал морской биолог:
Когда я пишу про акул в Bluesky, люди спрашивают про акул. Когда я пишу про акул в X, мне угрожают убийством.
👷♂️ Апдейт драйверов не помог. Звук стройки встроен на аппаратном уровне.
🐱 /start @binarcat
🚪Попросили показать пропуск в дата-центр. Достал связку с видеокартой. Все логично.
Защита от майнеров, вышла на новый уровень.
🐱 /start @binarcat
💻 Когда даже твой парфюм поддерживает обратную совместимость.
🐱 /start @binarcat
🧑💻 Код только вышел в релиз, а требования уже вернулись к версии 0.1 beta.
🐱 /start @binarcat
🤯 Когда просто спросил про архитектуру, а тебе уже показывают древние рукописи, схемы Боинга и картинки с превед медведом.
🐱 /start @binarcat
🤫 Внимание, инженеры снова пытаются подключить USB-кабель прямо к вашему внутреннему голосу.
Идея проста: декодировать тот самый голос разума в голове, которым мы спорим сами с собой и составляем гениальные планы, лежа в кровати в 3 часа ночи. Звучит как начало скромной киберпанк-драмы.
Однако, ИИ, которого учили распознавать попытки говорить, случайно начал подслушивать и просто мысли. Представьте: вы думаете, какой же коллега душный, а речевой протез это радостно печатает. Чтобы избежать таких конфузов, инженеры из Стэнфорда придумали... ментальный пароль.
🔑 Чтобы активировать систему, пациент должен был мысленно произнести кодовую фразу. Это буквально Окей, Гугл, но для мозга, так называемые триггер-паттерны.
На проверке, когда испытуемых попросили подумать о чем-то своем (любимая еда, цитата из фильма), декодер выдал полную абракадабру. Так что пока наши самые сокровенные мысли о смысле жизни в безопасности. Можно выдыхать.
🐱 /start @binarcat
⏰ Вот это номер: студент тренировал ИИ на текстах XIX века ради прикола, а тот внезапно описал реальные протесты Лондона 1834 и даже упомянул лорда Палмерстона. Модель угадала историю лучше, чем автор, и это уже слегка пугает.
Кто вообще этот Палмерстон? Генри Джон Темпл это глава британского МИДа (позже премьер-министр) и один из авторов реформы "Закона о бедных" 1834 года. Именно она спровоцировала уличные бунты против нищенских пособий.
📜 Если маленькая самоделка на арендованной видюхе, скормленная 6 ГБ викторианщины, собирает факты из воздуха, что будет, когда скормим 30 ГБ или даже больше? Историки скажут корпусная лингвистика, а у нас ощущение цифровой машины времени.
Забавно и тревожно, что мы боялись галлюцинаций ИИ, а получили "фактцидент" или случайное попадание в правду. Дальше что, модель на дореволюционных текстах предскажет, где опять наступим на грабли?
🐱 /start @binarcat
😱 Интегрировать одну кнопку легко.
Объяснить ПМу почему это 3 недели — бесценно искусство.
🐱 /start @binarcat