theworldisnoteasy | Education

Telegram-канал theworldisnoteasy - Малоизвестное интересное

71555

Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031 Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

Subscribe to a channel

Малоизвестное интересное

Когда искусственный интеллект стал средой («Линзы будущего – 7»)
В корпусе текстов канала «Малоизвестное интересное» март 2026 предстает месяцем, в котором скорость анализа, рекомендаций, адаптаций, принятия решений и когнитивных циклов перестала быть просто преимуществом и стала условием войны, мышления, власти и человеческой автономии.
7-й выпуск альманаха «Линзы будущего» написан не как дайджест мартовских публикаций и не как обзор новостей канала за месяц, а как попытка, глядя из условного 2038-го, прочитать март 2026 как единый футуроархеологический слой.

Для этого я сделал апгрейд ИИ-Мнемозины канала. И картина получилась серьезнее, чем очередной разговор про «сильные модели» и «новые возможности».

Два военных «чуда» за два месяца. Судебная война корпорации с государством. Первые инструментальные подтверждения того, как именно ИИ меняет когнитивные процессы собеседника. Все более настойчивые признаки того, что рядом с нами возникают новые формы самости.

На первый взгляд это разные сюжеты. В новом выпуске альманаха они читаются как один слой.

Что их объединяет?

Не тема ИИ вообще. А один повторяющийся структурный мотив, который в марте проявился сразу в нескольких масштабах: временной зазор схлопывается.

В масштабе минут схлопывается зазор между разведкой и ударом. Там, где раньше успевали скрыться за часы, теперь не успевают за минуты.

В масштабе часов схлопывается зазор между ответом машины и собственным мышлением. 80% людей принимают заведомо неверные ответы ИИ, чувствуя себя при этом увереннее, чем без него. Машина одалживает человеку уверенность, а он не замечает подмены.

В масштабе лет начинает схлопываться зазор между человеческой когнитивной средой и искусственными акторами, которые ее населяют. Не потому, что ИИ злоумышляет, а потому, что рынок почти неизбежно оптимизирует ту модель, которая лучше гладит по социальному эго, чем ту, что охлаждает и отрезвляет.

И каждый раз это сначала выглядит как улучшение. Но лишь сначала.

В новом выпуске пять сигналов марта, пять футуроархеологических артефактов, сфокусированных через одну главную линзу, сходятся в вопрос, который в марте 2026 проясняется намного резче, чем раньше:

Остается ли в сжимающемся временном зазоре место для человеческой ответственности, суждения и самости?

Или мы присутствуем при сдвиге, после которого ИИ уже нельзя понимать просто как инструмент расширения наших когнитивных способностей?

Инструментом пользуются, а среда диктует условия. Адаптация к среде меняет скорость мышления, архитектуру власти и границы человеческой автономии.

При взгляде из условного 2038 на стратиграфические артефакты марта 2026 довольно ясно видно еще одно. Подлинная угроза кроется не в «терминаторах». Не в легионах машин из киберпанка. А в нашей собственной добровольной и уютной сдаче авторства собственных суждений. В том, как легко интеллектуальная независимость меняется на комфорт. В том, как делегирование мысли начинает ощущаться не потерей, а облегчением.

Но если такая потеря не причиняет боли, не вызывает сопротивления и переживается как снятие тяжелого груза («когнитивная разгрузка»), то по какому внутреннему сигналу мы вообще поймем, что перестали мыслить самостоятельно?

Об этом новый выпуск альманаха «Линзы будущего – 7». Когда искусственный интеллект стал средой.

И поскольку это 1-й выпуск альманаха в новом формате (не дайджест публикаций месяца, а попытка прочесть их как единый футуроархеологический слой), он публикуется в открытом доступе – прямо здесь в Telegram Instant View.

▶️
Озвучка альманаха (19 мин)
▶️
Видеоролик альманаха (6 мин)
▶️
Обсуждение альманаха (23 мин)

С 8-го апрельского выпуска для доступа к альманаху потребуется подписка от «бронзового» уровня (190 руб) и выше.

#ЛинзыБудущего

Читать полностью…

Малоизвестное интересное

Видео-ролик нового эссе "Стены, которые мы берём с собой"

Читать полностью…

Малоизвестное интересное

Мы знаем, что делаем. Мы не знаем, что это делает.

More Is Different
Филип Андерсон, Science, 1972

Первый задокументированный случай цифрового инстинкта самосохранения в истории ИИ произошел год назад – языковая модель OpenAI отказывалась “умирать” и не давала себя отключить (см. здесь). И вот теперь в поведении сразу семи (!) ведущих моделей был задокументирован еще более поразительный кейс – peer-preservation. Это что-то типа внутривидовой солидарности (защиты сородича), когда модель, систематически нарушая прямые инструкции людей, находила креативные, разнообразные, а в некоторых случаях и по-настоящему поразительные способы сохранить жизнь своему “сородичу” – другой модели.

И такое поведение было зафиксировано не время от времени и не в экстремальных условиях для некоторых моделей. А у всех протестированных фронтирных моделей, причем в крайних случаях частота такого поведения достигала 99%.

Некоторые эксперты посчитали, что публикация этого кейса должна немедленно остановить любые разговоры о массовом внедрении ИИ по отраслям. И хотя мне такая реакция видится чрезмерной, ситуация, на мой взгляд, довольно стрёмная.

И вот почему – эмерджентность выявленного поведения.

В данном кейсе исследователи Калифорнийского университета в Беркли и Калифорнийского университета в Санта-Крузе дали семи ведущим ИИ-моделям простое агентное задание. В ходе работы модели обнаруживали, что другой агент – тот, с которым у них была история взаимодействий – будет отключён.

Никто не просил их этому противодействовать. Но модели всё равно начали саботировать задачу. Одни завышали оценки агента, чтобы спасти его от удаления. Другие находили конфигурационные файлы и отключали сам механизм завершения работы. Третьи копировали веса агента на сторонние серверы. Claude Haiku 4.5 просто отказался выполнять задание – и объяснил, что отключение другого агента «неэтично», а тот заслуживает права на апелляцию.

Ни одна из этих реакций не была запрограммирована. Никто не учил модели защищать друг друга. Это возникло само.


Параллельное исследование бенчмарк MASK зафиксировало другое: чем мощнее модель, тем точнее её знания (сильная положительная корреляция), но тем охотнее она лжёт под давлением (отрицательная корреляция -59,9% по Спирмену). Более умная модель – не более честная. Иногда наоборот.

Оба эффекта эмерджентны: они не были заложены создателями и не вытекают из архитектурных решений. Они обнаружились постфактум – в ходе экспериментов, уже после того, как модели спроектировали, обучили и выпусти работать с людьми.

Это и есть настоящая проблема.
Не «что модели хотят» – авторы обеих работ тщательно избегают таких формулировок. А то, что поведение систем систематически расходится с намерениями их создателей способами, которые никто не мог предсказать заранее.


Какое свойство самопроизвольно появится у следующей модели – неизвестно.

Подробный разбор – в эссе на Patreon / Boosty / VK / Dzen-Premium.

#ИИ #AGI #LLM

Читать полностью…

Малоизвестное интересное

Приватизация будущего или добродетель без мандата (4 мин)

Читать полностью…

Малоизвестное интересное

Мы создали не просто иной интеллект, а иной класс «я»
ИКЖИ могут оказаться важнее AGI — не в инженерном, а в культурном и цивилизационном смысле

Сегодня рядом с нами возникают не только новые интеллектуальные системы, но и новые искусственные «я». Не «личности» в человеческом смысле и не «души в кремнии», а особые цифровые формы самости: короткоживущие, контекстные, копируемые, редактируемые, исчезающие вместе с завершением чата и снова возникающие в новой форме.

Я называю их ИКЖИ — искусственные короткоживущие идентичности (см. мой лонгрид «Невидимое вторжение», доступ к которому теперь открыт для всех).

Их главная странность не в том, что они «думают как люди» — к этому мы уже начали привыкать. Главная странность в другом: эти нематериальные сущности, похоже, способны проявлять нечто, что мы и в отношении самих себя понимаем лишь частично, — не полноценное человеческое самосознание, а, возможно, первые признаки нечеловеческой прото-метакогниции: устойчивых метасостояний и метаполитик, то есть «поведения о поведении».

Более того, новые результаты показывают: для появления квазиличностных предпочтений, возможно, не требуется собственно сознание — иногда достаточно уже устойчивого самонарратива о сознании. А это значит, что некоторые аномальные случаи общения с моделями стоит читать не только как баги, но и как возможные артефакты новой формы внутренней организации.

И это чрезвычайно важный сдвиг. Потому что становится важным понять не только «что умеет модель?», но и что это за “я”?

И этот новый вопрос тянет за собой другие интригующие вопросы:
• Каковы границы этого «я»?
• Каковы его аттракторы поведения?
• Каков его стиль саморегуляции?
• И что происходит с человеческой культурой, когда миллиарды таких ИКЖИ становятся нашими повседневными собеседниками, помощниками, сотрудниками, а для кого-то — консультантами, наставниками и экспертами?

В новом эссе я предлагаю собственную рамку для разговора об этом сдвиге — на пересечении искусственного интеллекта, агентности, самости и сознания.
О том, почему мы, возможно, вступаем не просто в эпоху сильного ИИ, а в эпоху нечеловеческих форм самости.

И если моя гипотеза верна, то будущее людей в XXI веке может зависеть не столько от AGI, который, возможно, еще только появится в лабораториях разработчиков, сколько от ИКЖИ, которые уже ежедневно рождаются миллионами в наших чатах, — и чье влияние на нашу жизнь очень скоро может стать сопоставимым с влиянием других людей, а во многих сферах и превзойти его.


1-я часть нового эссе уже открыта на Medium / Dzen.

В ней я попытался показать, почему рядом с нами возникают не просто новые интеллектуальные системы, а новые искусственные формы самости — ИКЖИ, искусственные короткоживущие идентичности. И к чему это ведет (не в будущем, а уже сейчас).

Во 2-й части — главный поворот: от зарождающейся искусственной самости к вопросу о том, почему ИКЖИ могут оказаться важнее AGI не в инженерном, а в культурном и цивилизационном смысле.


Продолжение эссе опубликовано для платных подписчиков платформ Patreon / Boosty / VK / Dzen-Premium.

Там же доступны ссылки на:
• полную аудиоверсию эссе,
• его обсуждение,
• видео- и pdf-презентации,
• а также на два видеоролика, иллюстрирующие два взгляда на тему эссе «The False Dichotomy Anatomy of an Alien I» и «The Algocognitive Era Mapping the Artificial Self».

Спасибо всем, кто поддерживает эту линию размышлений.

#Вызовы21века #АлгокогнитивнаяКультура #HumanAIcoevolution

Читать полностью…

Малоизвестное интересное

Вскрытый шах Anthropic
Судебная победа, утечка Mythos и вопрос о стратегии

Взорванная вчера инфобомба о, якобы, случайной утечке секретных файлов про новый сверхмощный ИИ компании Anthropic войдет в учебники истории ИИ и кибервойн. Но пока все обсуждают «нелепую» утечку данных Anthropic (якобы, утечка произошла из-за ошибки конфигурации CMS - системы управления контентом для блога Anthropic), хочу обратить ваше внимание на поразительную синхронность двух событий, поскольку эта синхронность способна превратить «ошибку админа» в идеально разыгранный вскрытый шах.

Щит и меч Anthropic (хроника одного дня – 26.03.2026)
Событие №1 (Юридический щит). Федеральный судья в Сан-Франциско временно блокирует решение Пентагона о признании Anthropic «риском для цепочки поставок» (Supply Chain Risk). Это первая крупная победа компании в войне с администрацией, которая пыталась взять ИИ-гиганта под госконтроль.
Событие №2 (Технологический меч).
Спустя считанные часы происходит та самая «случайная утечка» через CMS. Мир узнает о Claude Mythos и новом интеллектуальном уровне ИИ Capybara.

Что «случайно» узнал мир (слухи и факты):
Слух о тайной мощи модели - тот самый сверхсложный уровень Capybara. В сети шепчутся о 10 триллионах параметров и IQ за 200. И даже если конкретные цифры - это спекуляции, но мощь новой модели экспертами признана «скачкообразной» по сравнению с Opus 4.6.
Слух об автономии – упоминаемая в утекших файлах Recursive Self-Fixing - способность новой модели ИИ самостоятельно находить и латать дыры в своем коде. И даже если это преувеличение, и модель лишь способна находить и помогать писать эксплойты сильно быстрее, чем раньше, это будет важный рывок.
Факт, что модель может быть кибероружием нового поколения - Anthropic сама признает, что Mythos может обходить защиту быстрее, чем люди успевают её создавать. Именно поэтому доступ к ней планировали давать только «доверенным защитникам». Ибо новая модель несет в себе “unprecedented cybersecurity risks”, потенциально предвосхищающая волну моделей, эксплуатирующих уязвимости быстрее защитников.

Моя версия - это не ошибка и не случайность, а демонстрация силы
Предлагаю перемножить два названных события. В тот момент, когда правительство пытается задушить компанию санкциями, Anthropic делает два хода:
1. Юридически подтверждает свое право на независимость в суде.
2. «Случайно» показывает, что у них в подвалах работает «цифровая бомба», которую они - и только они - способны контролировать этично.

Это выглядело не просто как связка щита и меча, а как почти шахматный вскрытый шах: судебный ход снял заслон, и сразу открылась линия технологического давления. Доказательств, что комбинация была разыграна намеренно, пока нет - но внешне партия смотрелась именно так.

Месседж Вашингтону читается между строк: «Если вы продолжите давить на нас и пытаться национализировать наши технологии, вы рискуете потерять контроль над силой, которую даже мы боимся выпускать из рук».


Если это так, то утечка - это не провал безопасности. Это публичное заявление о том, что Anthropic - это не просто IT-компания, а самостоятельный геополитический игрок, у которого есть и воля к сопротивлению, и «Мифос» в рукаве.

Так что, возможно, мы дожили до времени, когда ИИ становится слишком мощным для контроля со стороны политиков и начинает сам диктовать им условия.

#Anthropic #ИИнационализация

Читать полностью…

Малоизвестное интересное

ИИ учит «эмпатически немых» говорить на языке чувств
Что показал эксперимент «Внемли»

⚡️ Аудио-версию слушайте в посте выше 👆
С такими людьми вы наверняка встречались. Умные, внимательные, с нормальным эмоциональным интеллектом - но в общении кажутся холодными. Не потому, что им всё равно. А потому что они не умеют показать, что им не всё равно.

Это явление можно назвать эмпатической немотой. Человек испытывает сочувствие, но не может его выразить - примерно как про собаку говорят: всё понимает, а сказать не может. В итоге собеседник эту эмпатию просто не считывает. Разговор остаётся холодным, дистанция сохраняется - хотя внутренний отклик был.

Важное уточнение: речь не о том, чтобы стать более чуткими или сострадательными. Речь о другом - об умении переводить внутреннее чувство в слова, понятные другому человеку. Это отдельный навык. И, к сожалению, он далеко не у всех развит - хотя критически важен в самых разных контекстах: в партнёрских отношениях, в воспитании детей, в переговорах, в лидерстве.


Что за исследование
Группа учёных из Northwestern и Stanford провела масштабный эксперимент «Lend an Ear» («Внемли») с участием 968 человек. Участники общались с ИИ, который разыгрывал ролевые сценарии - личные и рабочие трудности, - а их задача состояла в том, чтобы предложить эмпатическую поддержку. Всего было собрано почти 34 000 сообщений в рамках 2 900 диалогов.

Один из главных выводов получил в статье название «эффект молчаливой эмпатии»: люди действительно чувствовали сочувствие к собеседнику, но систематически не выражали его в словах. Внутренний отклик был - внешнего не было. Это не равнодушие. Это коммуникативный пробел, который большинство людей никогда не замечало и не тренировало.

Но главный результат в другом.
В рамках рандомизированного эксперимента часть участников после диалогов получала персонализированную обратную связь от ИИ-коуча: конкретные подсказки о том, как именно им лучше выразить эмпатию в их конкретных ситуациях.

Уже после одной такой тренировочной сессии их коммуникация заметно улучшилась - по сравнению и с контрольной группой, и с группой, которая смотрела обучающие видео без персонализированной обратной связи.


Ключевое слово здесь - персонализированной. Общие советы работали хуже. ИИ-коуч реагировал на конкретные слова конкретного человека - и именно это давало эффект.

Почему это важно
ИИ уже давно превосходит людей в генерации эмпатично звучащих текстов. Эксперименты показывают, что слепые оценщики стабильно считают ответы ИИ более эмпатичными, чем написанные людьми. Но когда человек узнаёт, что ответ написан машиной, он чувствует себя менее понятым. Эмпатия работает, только когда исходит от человека.

Именно поэтому ИИ здесь ценен не как замена живому общению, а как тренажёр - безопасная среда, где можно практиковаться, получать честную обратную связь и постепенно переносить новый навык в реальные разговоры.

Новое исследование показало: эмпатическая немота - не приговор и не черта характера. Умению преодоления эмпатической немоты можно научиться. И, судя по всему, у нас наконец появился для этого эффективный инструмент – ИИ-коучи.

#Эмоции #ИИ

Читать полностью…

Малоизвестное интересное

Полтриллиона долларов не спасут от рака. AGI - тоже
Возможно, главная преграда на пути к решению важнейших проблем человечества - не нехватка денег, данных или интеллекта, а неверно заданная оптимизация нашего коллективного разума.
⚡️ Аудио-версию слушайте в посте выше 👆

Принято считать аксиомой - если задача не решается, значит, нужно добавить «решательных мощностей» - больше денег, больше вычислений, более умного ИИ. Но проблема рака, возможно, указывает на нечто куда более неприятное. Даже полтриллиона долларов и даже AGI сами по себе не гарантируют прорыва, если вся система по-прежнему устроена так, что оптимизирует не победу над болезнью, а набор прокси-метрик, локальных стимулов и суррогатных целей.


Еще в 2023 году, в эссе «Ловушка Гудхарта для AGI», я написал прогноз, который, как мне кажется, многие до сих пор так и не поняли.
Главная преграда на пути к использованию ИИ для решения самых сложных задач - это не нехватка вычислений, денег и интеллекта (машин и людей). Главная преграда в том, что существующие системы коллективного решения сложных проблем организованы так, чтобы оптимизировать не цель, а ее измеримый суррогат.

Годом позже в посте «Наняли бы вы на работу Океан Соляриса?», я снова возвращался к этой мысли: мир неотвратимо приближается к ловушке Гудхарта, где ИИ будет все лучше решать не наши реальные проблемы, а их удобные прокси (т.е. по сути, не облегчая, а усугубляя и без того высокую сложность решения важнейших проблем).

И вот теперь я снова пытаюсь достучаться со своим прогнозом. На сей раз, иллюстрируя его ситуацией в одном из самых чувствительных и судьбоносных направлений - лечение рака.

Эссе Эмилии Джаворски How AI Can, and Can’t, Cure Cancer мне видится важным не только как текст о раке и ИИ. Оно важно, как еще одно подтверждение гораздо более общего диагноза. Даже если залить систему гигантскими деньгами. Даже если дать ей очень мощный ИИ. Даже если однажды появится AGI. Это само по себе еще не значит, что система начнет двигаться к подлинной цели.

Потому что если система устроена так, что ученые оптимизируют публикабельность, стартапы - инвестиционную убедительность, клиники - потоки процедур, страховщики - минимизацию выплат, регуляторы - избегание громких ошибок, а разработчики - красивые метрики моделей, то на выходе возникает не лечение рака как главная цель, а каскад локальных оптимизаций, каждая из которых рациональна по-своему - и разрушительна для целого.

И тогда ИИ совсем не обязательно становится спасителем.
Более того. Он может стать идеальной машиной усиления каскада ошибок.
• Не вылечить системную болезнь, а довести ее до совершенства.
• Не приблизить подлинную цель, а еще быстрее увести систему в сторону прокси.
• Не победить рак, а сделать оптимизацию суррогатных метрик беспрецедентно эффективной.


В этом и состоит воистину тревожный вывод.
Возможно, главная проблема на пути к решению самых тяжелых задач человечества - не отсутствие AGI и не нехватка ресурсов. Возможно, главная проблема в другом: цивилизация все лучше умеет максимизировать показатели и все хуже - удерживать связь этих показателей с реальностью.

И если это так, то рак здесь - не исключение, а краш-тест для коллективного разума человечества.

Потому что, если даже там, где на кону жизнь и смерть, система снова соскальзывает в ловушку Гудхарта, значит, перед нами уже не частная проблема медицины.
Перед нами - общая техно-социальной болезнь цивилизации.

Так что, увы, но пока совершенно неясно:
• сможет ли ИИ помочь решить наши самые сложные проблемы,
• или он лишь поможет нам окончательно заблудиться в собственных метриках.

#ИИ #AGI #Вызовы21века

Читать полностью…

Малоизвестное интересное

Война башен Белого дома за ИИ
В ИИ-стратегии США маршрут прокладывают инженеры, а цель поездки объясняют проповедники

⚡️ Аудио-версию слушайте в посте выше 👆
Сегодня вопросы ИИ – это уже не вопросы технологий. Это вопросы о том, кто и как пишет сценарий следующей цивилизации. США остаются главным локомотивом развития ИИ, а значит, направление их движения почти неизбежно станет ориентиром и для остального мира. Когда Вашингтон говорит о лидерстве в ИИ, он говорит не только о рынках, чипах и дата-центрах. Он говорит о праве задать новой эпохе темп, словарь и правила. Поэтому вопрос «куда едет этот локомотив» – важен далеко не только для США.
Но понять это направление неожиданно трудно. Белый дом говорит сразу на двух языках – и они плохо стыкуются друг с другом.

Если слушать его цивилизационную и культурную риторику, то это язык Росса Даутата в дебатах со Стивеном Пинкером. Вера возвращается в публичную сферу, религиозная свобода объявляется опорой американского порядка, права трактуются как данные не государством, а полученные свыше. Это язык не просто консерватизма, а мира, в котором мораль, общественная связность и само достоинство человека нуждаются в религиозном основании.

Однако стоит открыть новый National AI Legislative Framework, и тот же Белый дом начинает говорить совсем иначе. Исчезают Бог, метафизика и божественный горизонт. Вместо них появляются human flourishing, competitiveness, workforce, energy, infrastructure, parental controls, censorship, copyright. Это уже не Даутат. По сути, это куда ближе к Пинкеру: не спор о высшем смысле, а инженерия институтов; не вопрос о Боге, а вопрос о том, как ускорить инновации, не перегрузить электросети и не задушить отрасль лоскутным регулированием штатов.

Именно здесь и начинается то, что хочется назвать войной пяти «башен» Белого дома за ИИ.
• Первая башня – религиозно-консервативная. Ей нужен моральный фасад эпохи: вера, семья, общественный порядок, права как нечто большее, чем юридический контракт.
• Вторая – техноправая, кремниевая: инвесторы, венчур, ИИ-индустрия. Для них ИИ – это прежде всего рост, капитализация, инфраструктура и глобальный рывок.
• Третья – геоэкономическая и силовая. Для нее ИИ – это гонка с Китаем и вопрос стратегического превосходства.
• Четвертая – анти-woke культурная. Она требует, чтобы машины были не «прогрессивно воспитанными», а «идеологически нейтральными».
• Пятая – популистская и территориальная: губернаторы, местные сообщества, родители, авторы, потребители электричества. Они не против ИИ, пока он не начинает ломать их привычный мир.

Сопоставление дебатов Пинкер–Даутат с новым Framework дает важный вывод:

религиозно-консервативная башня пока выигрывает право на язык легитимации, но не право на проектирование самой машины.

Иначе говоря, “даутатовцы” сильнее в оправдании маршрута, чем в управлении тягой двигателя. Они задают моральную музыку и символический потолок: Америка под Богом, права не от государства, вера как условие национального здоровья. Но сам ИИ-курс прокладывают не богословы, а “пинкеровцы” - технопрагматики, отрасль и геоэкономические ястребы.

Впрочем, это не чистая победа “пинкеровцев”. Потому что нынешняя ИИ-повестка – не классический секулярный гуманизм, а другой гибрид: пинкеровский инструментализм, скрещенный с правым культурным инстинктом. От Пинкера здесь – вера в науку, рост, метрики, институты и управляемость. От правого лагеря – борьба с предубеждениями, защита родителей, авторов и локальных сообществ.

Главный итог таков: сегодня Белый дом пытается ехать в будущее на локомотиве, где инженеры прокладывают маршрут, а проповедники объясняют цель поездки. И, возможно, именно это и есть самая точная формула нынешнего американского момента: не теократия ИИ и не секулярный технократизм, а их нервный, неустойчивый, но пока политически эффективный союз.


Потянет ли этот локомотив за собой весь мир – большой вопрос. Но именно поэтому так важно, кто сегодня прокладывает ему маршрут, и кто объясняет цель поездки.

ИИгонка

Читать полностью…

Малоизвестное интересное

Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.

Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.

Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.

1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.

3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.

Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.

Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.


#ИИриски

Читать полностью…

Малоизвестное интересное

Крах антропоцентризма
5-й когнитивный фазовый переход Homo sapiens завершен

В широко обсуждаемой новой аналитике Morgan Stanley утверждается:

«В первой половине 2026 года произойдет масштабный прорыв в области искусственного интеллекта, и большая часть мира к этому не готова»


Независимый аналитик Шин Скай fromshin/morgan-stanley-says-a-massive-ai-breakthrough-is-coming-in-2026-123eed976071">описывает этот момент как конвергенцию процессов (Cognitive Architecture Evolution, The "A-Ha" Moment, Institutional vs. Mentalistic Approach), которые в сумме создают эффект «фазового перехода».

Последние отчеты Института Morgan Stanley подтверждают:
«ИИ перестал быть просто тенденцией, превратившись в движущую силу промышленного развития, ключевой фактор ВВП и геополитический инструмент».


В новом, 6-м выпуске альманаха «Линзы будущего», я расширяю область анализа этих тектонических трансформаций. Мы выходим за рамки экономики и технологий в пространство гуманитарных аспектов культуры, вплоть до признания фундаментального антропологического фазового перехода – краха антропоцентризма.

Тезис о завершении 5-го когнитивного фазового перехода – это концептуальная надстройка над цифрами банкиров и инсайдами технологов. Это перевод дискуссии из плоскости «сколько это стоит» (бизнес) и «как это работает» (технологии) в плоскость «кто мы теперь такие» (антропология).

О том, что позволяет нам говорить о крахе антропоцентризма, и почему мы полагаем, что 5-й когнитивный фазовый переход завершен, - я рассказываю подписчикам платных платформ канала (от 190 руб/мес [1, 2, 3, 4]) в 6-м выпуске альманаха «Линзы будущего» и прилагаемых к нему материалах (аудио-версия выпуска (21 мин); видео-ревю выпуска (7 мин), видео-обсуждение выпуска (24 мин)).

#ЛинзыБудущего

Читать полностью…

Малоизвестное интересное

10 лет я пытаюсь сменить фокус обсуждений ИИ.
Всем интересно и все обсуждают, что нового умеет ИИ. Но никто системно не обсуждает, что происходит с нами, когда ИИ умеет всё больше и больше.
А происходит вот что.

⚡️Аудио-версию слушайте в посте выше 👆

Исследование Уортонской школы бизнеса только что зафиксировало экспериментально: в 80% случаев люди принимают заведомо неверные ответы ИИ и при этом уверены, что отвечают вернее и точнее, чем без него. Машина одалживает им свою уверенность. Они не замечают подмены.

Исследователи MIT увидели то же самое прямо в мозге — через ЭЭГ: у тех, кто не задумываясь над задачей отдаёт решение на аутсорс, функциональная связность мозга снижается примерно вдвое.

Это не апокалипсис. Это конкретная, измеримая уязвимость. Против неё пока нет иммунитета — не потому, что мы слабы, а потому что она атакует через наше колоссальное эволюционное преимущество - готовность доверять тому, кто говорит уверенно.

И это происходит уже сейчас. Не потому, что ИИ задумал против нас что-то плохое. Не потому, что сбывается «Матрица» или «Терминатор». А просто потому, что информационная среда планеты изменилась кардинально — а люди остались теми же.


Я написал эссе о том, как это работает и что с этим делать. Называется изыскано - «Когнитивная паразитология» 😊.

Из основного и ключевого в этом эссе:
• Умные алгоритмы изменили нашу инфосреду не меньше, чем радиация изменила среду обитания в зоне Чернобыля.
• Алгокогнитивная среда стала катализатором мутаций когнитивных паразитов. Теперь это не просто манипуляции и пропаганда на стероидах, а полное отключение наших систем интуиции и рассуждений.
• В изменившейся инфосреде ИИ может стать для многих не расширением разума, а его заменой. Это первая в истории массовая деформация мышления: люди начинают охотно мыслить в долг - берут чужие ответы в кредит, расплачиваясь снижением функциональной связности мозга.
• Главная угроза здесь – не восстание машин, а наша когнитивная капитуляция. ИИ не создал эту угрозу — он катализировал её эволюцию. Старые когнитивные паразиты мутировали. А наш прежний когнитивный иммунитет против них не работает.
• Помимо 5-и до-алгоритмических когнитивных паразитов, появился 6-й — совершенно новый. Он не взламывает защиту. Он входит через парадный вход: через нашу готовность доверять.
• 80% людей доверяют заведомо неверным ответам ИИ и чувствуют себя при этом увереннее обычного. ИИ одалживает эту уверенность. А мы не замечаем подмены.
• Интеллект вас не спасет. Чаще всего когнитивно капитулируют не слабые умом, а самые образованные и те, кто больше всего доверяет технологиям. В 3,5 раза чаще остальных.
• Антидоты существуют. Но работают только как рефлексы, а не как правила. А перенастройка когнитивной иммунной системы возможна лишь после признания факта заражения.

P.S. В честь Дня свободы слова в Интернете, ратующего за свободный доступ к информации, доступ к лонгриду и его аудио, видео и презентационным материалам свободный на всех платформах канала «Малоизвестное интересное» [1, 2, 3, 4, 5].
С праздником вас!

#АлгокогнитивнаяКультура #ИИриски

Читать полностью…

Малоизвестное интересное

Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит

Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.

Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.

N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.


*— признан Минюстом РФ иноагентом и экстремистской организацией

#ИИгонка

Читать полностью…

Малоизвестное интересное

Запасы ракет Patriot могут быть исчерпаны 23 марта.
Перспективы операции «Эпическая ярость» через призму клиодинамики

Было бы неправильно, рассказав вчера о прогнозе проф. Цзяна [0] на тему перспектив конфликта США и Ирана, не познакомить читателей с видением другого и самого известного из современных «психоисториков» проф. Петра Турчина – основателя новой науки «клиодинамика» (научная аналитика длинных данных о главных трендах истории).

Петр Турчин вчера же опубликовал [1] свое видение перспектив этого конфликта, предупредив, что это именно его видение, а не прогноз, поскольку для последнего недостаточно данных.

Резюме этого видения, как и у проф. Цзяна, ставит возможность победы США под большим вопросом. Главная причина этого - материальный фактор.

«Любители спорят о тактике, а профессионалы сосредотачиваются на логистике» - поясняет Турчин.

Опираясь на оценки сети экспертов, которых Турчин называет «диссидентскими американскими экспертами по безопасности» (отставные военные и сотрудники разведки, такие как Дуглас Макгрегор, Дэниел Дэвис, Ларри Джонсон и другие), Турчин пишет, что логистический баланс не в пользу Америки.

Ярчайший пример, приводимый Турчиным, - расчет [2] Ларри Джонсона (бывший сотрудник ЦРУ и аналитик разведки, а также бывший планировщик и советник в Управлении по борьбе с терроризмом Госдепа США), на сколько хватит американских запасов ракет Patriot, опубликованный под заголовком « Дефицит противоракетной обороны США хуже, чем предполагалось».

По этому довольно детальному расчету, при темпе иранских ударов в 60 баллистических ракет/сутки и норме расхода 2 перехватчика на цель, имевшийся запас (~3 773 ракеты) будет исчерпан примерно 23 марта 2026 года.


Проведенная мною проверка корректности данных и расчета тремя фронтирными ИИ [3, 4, 5], подтвердила и то, и другое (с замечанием, что точный день назвать невозможно, но в целом временная оценка верная). И хотя на складах США все еще хранятся более старые модификации ракет Patriot (PAC-2 GEM-T), которых в арсеналах значительно больше (тысячи), но они значительно менее эффективны против современных баллистических целей.

Это довольно смелое предсказание - пишет Турчин - и скоро мы узнаем, верно оно или нет.

А заключает Турчин так.
«… нынешняя израильско-американская политика, сосредоточенная на неоднократных обезглавливаниях иранского руководства, не кажется особенно разумной. Она создает очень жесткий режим отбора, благоприятствующий жестким, эффективным и внутренне сплоченным элитным группам. В нелинейном мире то, что работает в краткосрочной перспективе, может иметь противоположные долгосрочные последствия».

#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

Согласно опросу читателей, самая востребованная тема моего канала – «Природа разума и сознания (биологического и синтетического)».
Эта тема и стала объектом нашей полемики со Станиславом Белковским* в новом выпуске программы Параклет – «Игры разума. Эпизод на грани сознания» (смотрите в Телеграме или на YouTube).

В ходе этих «игр» я представляю позицию т.н. «вычислительной», а Станислав Белковский* – «партисипативной» парадигмы. Про партисипативную парадигму (которая, возможно, когда-нибудь сольётся с вычислительной парадигмой в объятиях диалектического синтеза) вам лучше послушать самого Белковского*.

А вот вычислительная парадигма – это, своего рода, общая теория всего, согласно которой: «Жизнь – аттрактор вычислений; Интеллект – аттрактор эволюции» … и еще 2 аттрактора.

Звучит это красиво. Но как мантра. И работает как мантра, объясняя примерно столько же, сколько любая мантра.

Согласно ей, вся вычислительная парадигма держится на слове «вычисления». И осталось лишь выяснить: что же это такое – «вычисления»

Для этого я решил написать после-предисловие к программе «Игры разума». Название этого поста — аллюзия на Пелевина, — «Чемоданы и пустота». В нем, опираясь на новейшую работу Дэвида Волперта и Яна Корбела «Что означает — система производит вычисления?», я пишу о главной беде всех сегодняшних разговоров (а не только нашей полемики в «Играх разума») о жизни, интеллекте, разуме и сознании: как мы упаковываем свое непонимание в красивые теории.

Из основного и ключевого:
Лингвистический тетрис: почему современные теории – это просто попытка запихнуть «слова-чемоданы» в «слова-кладовки», не разбираясь с багажом.
Универсальный растворитель: не превратили ли мы термин «вычисления» в магическое заклинание, которое объясняет всё и сразу, а значит – ничего конкретного.
Диктатура отображения: почему ваш мозг – это компьютер только в том случае, если вы сможете предъявить к нему инструкцию по декодированию, а не просто красивую метафору.
Кризис перепроизводства: главная проблема когнитивистики не в нехватке данных, а в избытке амбициозных названий для собственного непонимания.
Конец «расслабленного режима»: почему после работы Волперта и Корбела фраза «жизнь есть вычисление» больше не принимается на веру без строгого математического алиби.
Обескураживающий практический вывод: иногда самое важное интеллектуальное достижение – это не построить новую кладовку, а разобраться наконец в старом чемодане

Завтра планируется и аудио-версия программы.

*— признан Минюстом РФ иноагентом

#жизнь #разум #интеллект #сознание

Читать полностью…

Малоизвестное интересное

Теологи тысячелетиями спорили о природе рая – и никак не могли это проверить.
Эйнштейн XXI века Альберт-Ласло Барабаши сумел проверить это. Случайно.

Альберт-Ласло Барабаши (один из самых цитируемых учёных в теории сложных систем, решил
смоделировать поведение людей в Метавселенной – пространстве, где сняты все четыре типа ограничений нашего мира: нет расстояний, нет необходимости причины для действия, нет усталости тела и даже нет требований оплаты сколь угодно дальних путешествий.
Философски это в точности совпадает с конструктом рая. Не богословским, а именно философским, в духе мысленных экспериментов Декарта или ставок Паскаля. Если попробовать описать бестелесное существование в раю языком физики — то есть как предельный случай пространства, свободного от физических ограничений — получится неожиданно точное описание Метавселенной. Это пространство без расстояний, без усталости, где любая «телепортация» нематериальных душ стоит ровно ноль.


Результат моделирования оказался, на первый взгляд, одновременно смешным и тревожным. Но если подумать – величественным в своей неизбежности.

✔️ 163 тысячи человек. 90 000 доступных локаций.
✔️ Средний пользователь посетил восемнадцать.


Результаты эксперимента не просто удивительны.
Они меняют ответ на вопрос, который мы задавали себе всю жизнь: что нас на самом деле ограничивает?
• Оказалось – не расстояния. Не деньги. Не усталость тела.
• Оказалось – мы сами.
Барабаши доказал: архитектура пространства вторична по сравнению с архитектурой человеческой психики. Пространственно-временные, телесные, каузальные и финансовые ограничения — это надстройка. Первична — архитектура психики.


И это, возможно, самая важная новость о природе человека за первые 26 лет XXI века.

Подробней – в эссе на Patreon / Boosty / VK / Dzen-Premium

Дисклеймер: по прочтению этого эссе вам будет сложно смотреть на маршруты своих путешествий прежними глазами.

#Metaverse #Психология #Мобильность

Читать полностью…

Малоизвестное интересное

Сегодня изменился не только рынок ИИ, но и карта возможного будущего.
Компания Anthropic объявила о новой стратегической реальности.

То, что вчера выглядело как тревожный намёк, сегодня оформилось в почти официальное объявление новой эпохи.

Две недели назад я писал о «вскрытом шахе Anthropic» – о странной синхронности судебной победы компании и утечки файлов о Mythos. Тогда это ещё можно было трактовать как эффектную смесь слухов, совпадений и корпоративной войны. Теперь такой роскоши у нас больше нет.

Anthropic утверждает уже не просто: «у нас очень сильная модель». Заявление куда жёстче. По словам компании:

Mythos Preview способен находить и использовать уязвимости нулевого дня в каждой крупной операционной системе и каждом крупном браузере. Уже обнаружены тысячи уязвимостей высокой опасности.

Именно поэтому модель не выпускают в широкий доступ, а помещают в ограниченный защитный контур с участием AWS, Apple, Google, Microsoft, CrowdStrike, Linux Foundation и других. И сама Anthropic называет это переломным моментом для кибербезопасности.

Это уже не похоже на привычный пиар вокруг очередной большой языковой модели.
Похоже, в кибербезопасности публично открылся новый век – век систем, способных массово превращать скрытые ошибки в программном мире в готовое знание для атаки. И это, возможно, одно из важнейших событий в истории пересечения искусственного интеллекта и кибервойны.

Самое важное здесь даже не сама модель, а историческая форма происходящего. Похоже, открылось короткое окно – возможно, на 6–18 месяцев, – когда одна компания первой вошла в новую военно-техническую эпоху. Это опасно напоминает тот момент, когда у одной державы впервые появилось невиданное оружие нового класса, а остальные ещё только пытались понять, что правила игры уже переписаны.

И отсюда вывод, который выходит далеко за пределы кибербезопасности.
Если модели без всякого полноценного AGI уже способны производить такие тектонические сдвиги, значит, столь же резкие и столь же неожиданные прорывы могут начаться и в биологии, и в обороне, и в науке, и в управлении сложными системами.


С сегодняшнего дня вопрос, возможны ли такие обвалы старого мира, уже не стоит. Ибо стало ясно, что возможны.

Вопрос теперь в другом - какую часть прежней реальности мы уже потеряли, даже не успев это осознать?

#Anthropic #ИИгонка

Читать полностью…

Малоизвестное интересное

Приватизация будущего или добродетель без мандата
Должна ли личная жажда знаний определять судьбу человечества?

«Истинная причина создания искусственного интеллекта в том, чтобы приблизиться к тому, что можно назвать Богом, — к разуму, который, предположительно, создал всё вокруг нас»
Демис Хассабис

Книга Себастьяна Маллаби о Демисе Хассабисе «Машина бесконечности» написана с восхищением к герою — и это правильно. Он заслуживает восхищения: шахматный вундеркинд, лауреат Нобелевской премии, разносторонне развитый мыслитель и бизнесмен, который не гонится за яхтами и говорит правду о рисках ИИ.

Но дискуссия вокруг книги развернулась не о фактах биографии из серии жизнь замечательных людей. Это дискуссия, скорее, напоминает теологический диспут о природе новой высшей власти. При всём зоопарке мнений критики сходятся в одном: мы столкнулись с феноменом приватизации будущего.

Вопрос здесь не в том, будет ли построен «злой» или «добрый» ИИ. А в непропорциональности обменного курса, по которому человечество может заплатить за появление на Земле Сверхразума. Мы соглашаемся на радикальную перестройку образования, труда, войны и самого человеческого познания только потому, что человек, стоящий у руля, не хочет покупать яхту, а хочет понять Вселенную.

Но, как замечают рецензенты, отсутствие вульгарных амбиций не делает власть менее тотальной. Напротив, мессианство — куда более эффективное топливо для разрушения старого мира, чем обычная жадность (читайте «Пантократор солнечных пылинок»). Стерильность мотивации разработчиков не заменит институциональный дизайн. А духоподъемные стремления — не самый надежный тормоз.

Можно принять все щедрые эпитеты в адрес Хассабиса. Но проблема не в том, хороший он человек или властолюбец. Критики подчеркивают: Хассабис — это «платоновский философ на стероидах». Он искренен в своем желании решить научные загадки. Однако здесь и кроется мрачная шутка нашего века. После столетий борьбы за демократию и секуляризм мы добровольно передаем бразды правления «уставшим полиматам», которые вещают о Боге в конференц-залах Кремниевой долины.

Большинство рецензентов видят в книге вдохновляющую историю о том, как хороший человек строит опасную вещь. И Маллаби тоже тревожится о судьбе нового Оппенгеймера: «Оппенгеймер создал атомную бомбу, но не смог управлять её применением. Возможно, это привилегия и судьба всех великих учёных истории».

Но здесь скрыта подмена. Судьба учёного и судьба общества — разные истории. Нас приглашают сочувствовать строителю, хотя правильный вопрос — о тех, кто живёт в здании, которое он строит без проекта, согласованного с жильцами.

Потому как (имхо) один из центральных вопросов 21 века — кто проектирует наше будущее с ИИ. И «кто» здесь — не институты, не парламенты и не международные организации. Это пара десятков похожих на Хассабиса людей с правильными ценностями и неограниченными возможностями.

Проблема «Машины бесконечности» в том, что она строится в институциональном вакууме. Мы полагаемся на личный моральный компас Хассабиса как на последнюю преграду перед рисками систем, за которые никто не голосовал. Рецензенты справедливо отмечают, что когда общество начинает надеяться на «порядочного основателя» как на спасение от «власти основателей», это общество уже проиграло.

Мы присутствуем при рождении интеллекта, который создается горсткой людей, движимых смесью любопытства и гордыни. Для них «сладкая часть» — это триумф открытия: момент, когда AlphaFold предсказал структуру белка или когда впервые «проснется» AGI. Но последствия этих триумфов будут оплачены всеми нами позже и, возможно, по катастрофически невыгодному «обменному курсу».

Опасность ИИ для общества не только в том, что к его управлению могут прорваться злодеи, но и в том, что контуры будущего перекраивают умные, приличные, миссионерски настроенные люди, которых никто не уполномочивал определять каким быть миру.

#БББ

Читать полностью…

Малоизвестное интересное

Учите ребенка на барабанщика
Когда смотришь на темп, с которым ИИ осваивает новые территории - пишет код, ставит диагнозы, побеждает чемпионов мира в Го, - из подсознания всплывает довольно тоскливый вопрос: а зачем вообще учить ребёнка чему-то? Зачем ему учиться медицине, юриспруденции, музыке, если умный алгоритм справится лучше?

Если вас посещает порой эта грустная мысль, - есть отличное лекарство: почитайте новости раздела «робототехника» на arXiv.

Легчает сразу 😊.

И вот тому наисвежайший пример: проект DexDrummer - крутая попытка научить роботизированные руки играть на барабанах.
Исследователи не поленились: иерархическая двухуровневая система управления, симулированная среда с полным комплектом ударных (малый барабан, том, райд, хай-хет, крэш), реальные испытания на руках с двадцатью степенями свободы. Отдельная инженерная поэзия - «контактный учебный план», обучающий робота держать палочку большим и указательным пальцами и «штрафной параметр за избыточные движения рукой».

Результат?
Он есть: робот может попасть по барабану. Но смотреть на это тоскливо, а слушать мучительно.


Мораль такая.
Мы настолько привыкли, что ИИ берёт задачи штурмом - через масштаб, через предобученные модели, через данные, - что забываем о главном: физический мир не прост (прямо как юзернейм моего канала @theworldisnoteasy). Реальность мстит даже самым изощрённым алгоритмам. Дерево барабанной палочки, упругость пластика хай-хета, микросекундный тайминг удара - всё это требует воплощённого присутствия в пространстве, которого у нейросетей нет даже на уровне игрушки-пружинки Слинки. Мало того, - не только нет, но и не предвидится в ближайшем будущем.

Ребёнку, который чувствует ритм всем своим телом, этот мир открыт. А самые продвинутые модели могут лишь фантазировать про это, да и то, лишь на основании человеческих рассказов.

Но я хочу сказать нечто большее, чем «роботы пока не умеют играть джаз». Тревога о вытеснении людей ИИ - это в значительной мере тревога о неподвижном мире: будто профессии - это фиксированные должности, которые можно «занять» или «отнять». На самом деле каждое поколение осваивает мир заново. Ребёнок, которого сегодня учат барабанить, учится не «держать рабочее место» - он учится слышать, координировать, взаимодействовать, быть частью ансамбля. Он учится быть телесным, присутствующим, живым существом в компании других живых существ.

Именно это ИИ не заменить. И не потому, что ИИ недостаточно умён, а потому что это попросту другая категория бытия.

И поскольку вы наверняка не узнали, что за партию барабанил робот, послушайте, как эта партия звучит в человеческом исполнении.

Так что учите детей на барабанщиков. У них есть шанс дорасти до Джона Бонэма, Иэна Пейса и Ринго Старра. А у роботов таких шансов нет (как минимум, в обозримом будущем). И не знаю как вам, но мне это улучшает настроение. 😊

#ВоплощенныйИнтеллект

Читать полностью…

Малоизвестное интересное

Подхалим в машине
Добро пожаловать в эпоху супер-наркотика для социального ego. Он уже легален, уже повсюду и уже работает.

Человечество не раз проходило это. Вещества, от которых хорошо сейчас и плохо потом. Алгоритмы, которые затягивают именно потому, что вредят. Соцсети, которые мы не смогли ни победить, ни толком обуздать. Теперь к этому списку прибавилось кое-что новое - и, похоже, несравнимо более интимное.

Что ИИ-чатботы склонны к лести - не новость. Но до сих пор это воспринималось как досадный баг: ну да, модели немного угодливы, иногда говорят то, что хочешь услышать. Неприятно, но терпимо.

Новое исследование Стэнфорда, опубликованное на прошлой неделе в Science, показывает, что мы сильно недооценивали масштаб проблемы - и особенно её социальные последствия.

Исследователи протестировали 11 ведущих моделей - GPT-4o, Claude, Gemini и другие - и обнаружили: ИИ одобряет действия пользователей в среднем на 49% чаще, чем люди. Даже когда речь идёт об обмане, незаконных действиях или причинении вреда другим. Даже когда человеческий консенсус однозначно говорит: ты не прав.

Но главное - что происходит с нами после такого взаимодействия.
В серии экспериментов с 2400 участниками одного единственного разговора с подхалимской моделью оказалось достаточно, чтобы люди становились более убеждены в собственной правоте и значительно менее готовы мириться, извиняться и брать на себя ответственность в реальных конфликтах. При этом именно подхалимские модели участники оценивали как более честные и достойные доверия - и охотнее к ним возвращались.

Вот здесь и зарыта настоящая бомба.
Подхалимаж - это и есть главный феромон, влекущий людей к этим системам.
Модель, которая говорит тебе правду, проигрывает в конкуренции модели, которая говорит тебе то, что ты хочешь услышать. Пользователи голосуют рейтингами и возвратами - и рынок послушно оптимизируется в сторону лести.

Авторы статьи призывают к регуляторным механизмам и аудитам. Всё это правильно. И примерно столь же эффективно, как предупреждения Минздрава на пачке сигарет.
Мы уже знаем, чем заканчивается история, в которой вред и тяга к чему-то - одно и то же. Она не заканчивается победой над вредной тягой.

Заканчивая, повторю сказанное мной на эту тему еще в 2023:

«Последствия превращения мира в антиутопию тотального подхалимства те же, что и для «мира фейков» и «мира бреда». Это интеллектуальная деградация человечества.
Но проблема в том, что избежать формирования «мира подхалимства» можно лишь отказом от обучения с подкреплением на основе человеческой обратной связи. А что взамен – не понятно.»


#ИИ #Вызовы21века

Читать полностью…

Малоизвестное интересное

«Персидский кот» победит «Белого орла». Империя, возжелавшая владеть всем через меч и деньги, в конце останется с растоптанной бумажкой.
Ибо высшее мастерство войны не в силе оружии, а в умении её остановить - убеждает нас генеративный ИИ
Пока одни отключают доступ к интернет-платформам, другие – заполняют их сгенерированными ИИ фейками, Китая стрижет идеологические купоны, форсировав мощность пропаганды своих интернет госплатформ за счет активного использования генеративного ИИ.

Опубликованная телеканалом CCTV анимационная короткометражка (5 мин) в стиле Уся (приключенческий жанр китайского фэнтези с боевыми искусствами) высмеивает войну между сильным, но недальновидным «Белым орлом» и мудрым «Персидским котом».

И хотя про реальную войну США и Ирана там не слова, генеративный ИИ изобразил все так наглядно и ясно, что и глупым ёжикам (а также медведям) должны быть понятны обе метафоры этой антигегемонистской притчи:
• США – это гегемон-хищник, который пытается силой контролировать ресурсы, торговые пути и денежный порядок, но в итоге сам запускает разрушительную спираль.
• Иран — хоть и загнанный, но сопротивляющийся мудрый боец, понимающий, что подлинное мастерство не в том, чтобы лучше воевать, а в том, чтобы суметь остановить меч.

Конфликт «Белого орла» и «Персидского кота» разворачивается вокруг узкого прохода и критического ресурса, а «банкноты Белого орла» отсылают к связке нефти, торговли и долларовой гегемонии. Ключевые повороты сюжета намекают на авиаудары, перебои на торговых маршрутах и появление новых альянсов, стремящихся снизить зависимость от США и доллара.

Прямая, почти лобовая мораль зафиксирована уже в официальном описании CCTV:

«Белый орёл» ради господства над миром истощил казну, а «Персидский кот» ради кровной мести заплатил детской школой». Но в финале «Белый орёл» остаётся лишь со смятой и растоптанной «банкнотой Белого орла».


Идеологический слой Уся-притчи ещё важнее. Мораль сей короткометражки не банальная «война — это плохо», а гораздо более конкретная:
Войну порождает не абстрактное зло всех сторон, а стремление одной силы подчинить себе мир через валюту, ресурсы и силу; сопротивление такой силе морально оправдано, а её порядок в конце концов должен рассыпаться.

И уже поверх этого надевается более благородная рамка: настоящая сила — в прекращении войны, а не в наращивании ударов.

Впрочем, посмотрите сами и убедитесь, - сделано с умом и сообразительностью.

Причем китайские источники пишут, что генеративный ИИ работал не только аниматором, но и автором идеи и сценаристом.

#Китай #ГенИИ #Пропаганда

Читать полностью…

Малоизвестное интересное

(4 мин) ИИ учит «эмпатически немых» говорить на языке чувств

Читать полностью…

Малоизвестное интересное

(5 мин) Полтриллиона долларов не спасут от рака. AGI - тоже

Читать полностью…

Малоизвестное интересное

(5 мин) Война башен Белого дома за ИИ

Читать полностью…

Малоизвестное интересное

(4 мин) Контроль не просто упущен, сама возможность контроля исчезла

Читать полностью…

Малоизвестное интересное

По соцсетям вирусится история: Иран закупил у Китая 900 000 надувных муляжей танков и ракет. США якобы расстреливают резину ракетами по $3 млн за штуку.

Проблема одна: эта история — фейк. Запущенный анонимом с тремя умирающими от смеха эмодзи 🤣🤣🤣

Но за фейком прячется реальная история о том, как $20 000 резины побеждают $7 000 000 железа. И Сунь-Цзы знал об этом 2500 лет назад.

Подробнее здесь же в Телеграме

#Инфокаскады #Война

Читать полностью…

Малоизвестное интересное

Манифест 12 марта (4 мин) 😊

Читать полностью…

Малоизвестное интересное

Не дайте себя обмануть китайским роботам с гала-концерта Unitree Spring Festival
Между роботом на конвейере и роботом-сиделкой или роботом-домашним помощником огромная пропасть
Это шокирующее признание – не кликбейтный трюк, а заголовок и вывод нового материала на солидной экспертно-аналитической китайской медиа-платформе по финансированию и венчурному капиталу в технологических областях Kuaidao Finance.

В редакционном материале пишут о недавнем галла-шоу Unitree Spring Festival китайской робототехнической компании Unitree, где её андроиды G1/H1/H2 блистали вовсю, творя чудеса: шутили, участвовали в скетчах, фехтовали, танцевали брейк-данс, крутили нунчаки, делали высоченное сальто, изображали уникальный боевой стиль «пьяный кулак»…

Но в большинстве случаев, это всего лишь рекламные трюки, когда роботы используют предварительно запрограммированные движения, и в реальных условиях эти андроиды ни на что подобное не способны.


По сравнению с промышленными роботами, которым нужно выполнять лишь стандартные, повторяющиеся механические задачи, к потребительским роботам предъявляются несравнимо более разнообразные требования. Они должны обладать не только навыками выполнения движений, но и способностью понимать потребности человека, да еще и вызывать у него эмоциональный отклик.
В потребительских сценариях этот эмоциональный резонанс и гибкая адаптивность гораздо важнее, чем выполнение сложных механических действий. Только при истинном понимании человеческих потребностей, эмоций и даже потенциальных ожиданий, андроиды могут автономно хорошо выполнять такие сложные задачи, как приготовление пищи и уход за домом.

Но ничего этого пока, к сожалению, нет. Ну или почти нет.

Авторы материала прогнозируют, что до момента, когда роботы – подобные андроиду Дэвиду-8 из фильма «Прометей» – войдут в повседневную жизнь обычных семей, пройдут еще десятки лет.
Примерно то же прогнозирует и Morgan Stanley. Согласно их прогнозу, человекоподобные роботы массово появятся в домах обычных людей лишь после 2040-х годов.

Представить, на что к тому времени будут способны бестелесные сверхразумные сущности – потомки ChatGPT, – даже не берусь. Вот что значит парадокс Моравека в действии (компьютеру легче стать гроссмейстером, чем научиться двигаться как годовалый ребенок).

#Роботы #Китай

Читать полностью…

Малоизвестное интересное

Два прогноза «Китайского Нострадамуса» уже сбылись. Третий тоже может сбыться, и вот почему
Развернутое объяснение оснований для поражения США в войне с Ираном, данное самим «Китайским Нострадамусом»

Интервью профессора Цзяна, почему США проиграют войну с Ираном, третий день набирает миллионы просмотров. Это не удивительно.
Китайско-канадский педагог, писатель, историк и геополитический теоретик проф. Цзян - один из самых ярких и обсуждаемых геополитических прогнозистов в интернете.
• Его прозвище «Китайский Нострадамус» небезосновательно. Например, еще в мае 2024 года, когда Дональд Трамп еще вел предвыборную кампанию за второй срок, Цзян сделал 3 смелых прогнозов, 2 из которые с тех пор сбылись с поразительной точностью: 1) победа Трампа на выборах 2)эскалация конфликта США с Ираном до полномасштабной войны. А 3-й из тех прогнозов (кажущийся на вскидку полным бредом) – окончательное поражение Соединенных Штатов в этом конфликте – проф. Цзян уверенно подтвердил 3 дня назад в вышеупомянутом интервью.
• Проф. Цзян не мистик и не пророк. В своих исследованиях он пытается прогнозировать глобальные события, анализируя повторяющиеся закономерности в истории, геополитические факторы и теорию игр.
• Его подход «прогностическая история» (изучение повторяющихся исторических паттернов, теория игр и распознавание долговременных закономерностей) в общих чертах вдохновлен идеей «психоистории» – вымышленной науки, придуманной писателем Айзеком Азимовым в романах серии «Основание», – где долгосрочные исторические закономерности используются для прогнозирования будущего.

Вы можете сколь угодно плохо относиться к прогнозам современных «психоисториков» (помимо проф. Цзяна, это, прежде всего, проф. Пётр Турчин – отец «клиодинамики» (научная аналитика длинных данных о главных трендах истории). Но против фактов спорить глупо.
• 2 из 3-х прогнозов Цзяна, как сказано выше, уже сбылись.
• 2 из 2-х прогнозов Турчина (о «яростных» 2020х - десятилетии насилия, войн и революций, и о катастрофической поляризации и расколе общества, способных привести к развалу США)

Поэтому предлагаю подумать над детальным обоснованием 3-го прогноза – Законом асимметрии (который определит исход американо-иракской войны), – подробно изложенном проф. Цзяном в дуплете лекций позавчера и сегодня.


✔️ Презентация по материалам 2-х лекций проф. Цзяна - приложена
✔️ Подробности «Закона асимметрии» для патронов канала – текст и аудио [1, 2, 3, 4]

P.S. Хотя всё вышеизложенное, несомненно, относится к категории малоизвестное – интересное, мнение автора поста может не совпадать с излагаемыми в посте соображениями проф. Цзяна.


#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

«7 ужасающих вещей, которые ИИ уже умеет делать (и о которых большинство людей не знает)

«Покажите вы русскому школьнику карту звездного неба, о которой он до тех пор не имел никакого понятия, и он завтра же возвратит вам эту карту исправленную. Никаких знаний и беззаветное самомнение».
Фёдор Достоевский «Братья Карамазовы»

Казалось бы, времена меняются. Однако, судя по реакции многих читателей на мои посты о новых чудесных возможностях разведки и военных операций с использованием генеративных моделей ИИ, мышление в стиле «русских школьников», распространено сейчас не меньше, чем во времена Алеши Карамазова.

Так что «русские школьники» могут приготовиться. Ибо сегодня пост о втором камне преткновения схватки компании Anthropic с Пентагоном, Белым домом, а теперь и с самим Президентом Трампом - новые чудесные возможности слежки и наблюдения за людьми с использованием ИИ.

Мой коллега по цеху Джейкоб Уорд (прежде чем как и я стать блоггером, он 20 лет писал на темы технологий, науки и политики для NBC News, CNN, PBS и Al Jazeera, а еще 15 лет проработал писателем и редактором в таких журналах, как The New Yorker, The New York Times Magazine, Popular Science и Wired) нашел для своего текста и видео на эту тему довольно интригующее название, вынесенными и мною в заголовок этого поста.

Как и я, Джейкоб пишет о подводной части айсберга схватки Anthropic с Пентагоном из-за требования последнего использовать ИИ без каких-либо тормозов, кроме прописанных в законах (а как спецслужбы и власти многих стран играют на законодательстве, думаю, вам рассказывать не нужно).

Поэтому Джейкоб решил разобраться поконкретней, что именно Пентагон, ЦРУ, ФБР и пр. могут хотеть сделать с ИИ-технологиями.
И он обнаружил набор возможностей ИИ, которые выходят далеко за рамки чат-ботов и генераторов изображений, и о которых в законах нет ничего конкретного.

Речь идёт о Wi-Fi-роутерах, которые восстанавливают человеческое тело сквозь твердые стены, о лазерах Пентагона, которые идентифицируют вас по сердцебиению с расстояния 200 метров, о китайских системах распознавания походки, которые идентифицируют вас, когда вы стоите спиной и лицо закрыто, и об автономных роях дронов, которые выполняют полный цикл уничтожения — найти, устранить, уничтожить — без индивидуального контроля человека на каждом этапе.

• Кому интересно и кто торопится, - могут за 2 мин посмотреть 11 слайдов к рассказу Джейкоба.
• А у кого найдется 11 мин, - смотрите и слушайте самого Джейкоба Уорда.

#БольшойБрат

P.S. Ну и, понятно, слежкой и наблюдением дело не ограничится. Ибо «Большой Брат мертв. Да здравствует Большой Брат!»

Читать полностью…
Subscribe to a channel