theworldisnoteasy | Education

Telegram-канал theworldisnoteasy - Малоизвестное интересное

63565

Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет. Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

Subscribe to a channel

Малоизвестное интересное

“Революция ChatGPT” запустила 2й этап переформатирования мира и разума людей в цифру
(анонс нового лонгрида)
1й этап – начавшийся в 2000-х бум социальных сетей – привел к лавинообразному перемещению социальных взаимодействий людей в цифровую среду Интернета с последующей трансформацией, а порой и полным замещением путей, способов и механизмов социальных коммуникаций, формировавшихся несколько тысячелетий генно-культурной коэволюции людей.
2-й этап – распространение больших языковых моделей, – принимая эстафету от соцсетей, может стать еще более сильным катализатором переформатирования мира и человека. Ибо теперь будут радикально меняться уже не только пути и способы социальных коммуникаций, но и механизмы осуществления социально-когнитивных функций людей и их агентности.


Спектр влияния LLM на социально-когнитивные механизмы людей пока точно неизвестен. Но гипотетически LLM способны влиять даже на основу основ социальной жизни общества – его социальные нормы (неписаные правила, предписывающие, что люди должны и что не должны делать для решения социальных, экологических и медицинских проблем, с которыми сталкиваются общества).

Так ли это?

Мой новый лонгрид «Трайбализм ИИ-моделей ведет мир к цифровой холодной войне» (37 стр., 25 рис., 37 ссылок) - одна из первых попыток (а может и просто первая) создать подобие строительных лесов, позволяющих дальше строить некий трансдисциплинарный интеллектуальный каркас исследований всего комплекса вопросов начинающегося культурного сдвига, порождаемого (впервые в истории человечества) объединением людей и машин.

Подписчики моих лонгридов могут прочесть этот новый текст
на Boosty, Patreon, VK и (это новация) на Дзене.

#АлгокогнитивнаяКультура #СоциальныеСети #LLMvsHomo #Вызовы21века

Читать полностью…

Малоизвестное интересное

Обойдя Японию и Германию, Китай теперь №3.
А США покинули десятку лидеров.

Об индустриальной мощи страны имеет смысл судить не по её парку роботов-андроидов, а по уровню автоматизации её промышленности - количеству эксплуатируемых промышленных роботов на 10 тыс. сотрудников.
Вот три примера.
США
Недавно Илон Маск развлекал журналистов шумной презентацией, где роботы-андроиды готовили коктейли и разносили закуски. Это конечно прикольно, но не более того. А тем временем, согласно новому годовому отчету Международной федерации робототехники, США покинули десятку стран мировых лидеров по количеству эксплуатируемых промышленных роботов на 10 тыс. сотрудников. Как видно из приведенных диаграмм, США уже который год плавно теряют позиции среди ТОР 25 стран-лидеров, пропустив вперед Швейцарию и Словению и имея шансы в этом году скатиться ниже Тайваня и Нидерландов.
Китай
Поставив роботизацию промышленности среди ключевых приоритетов, Китай, с настойчивость прихватившего противника бульдога, из года в год поднимается в рейтинге все выше. И теперь, обойдя Японию и Германию, Китай ставит цель достать №2 Сингапур. Что сложно, ибо тот на «целый круг» впереди, опережая почти в 2 раза. С лидером – Юж.Корея будет еще сложнее, т.к. он опережает аж «на два круга» (примерно в 3 раза). Но Китай это не смущает. И по их планам 1-е место в мире Китай займет уже в 2030.
Россия
Тут могу лишь сказать, что при показателях Китая и США 479 и 295 эксплуатируемых промышленных роботов на 10 тыс. сотрудников и среднем по миру показателе в 162 робота, в России сейчас этот показатель равен 11 (т.е. отставание от США в 27 раз, а от Китая в 44 раза. Планирующий контролировать более 50% рынка робототехники в России "Росатом" обещает к 2030 г. увеличить число роботов в 9,5 раз (с 10 тыс до 95 тыс), что в 2 раза меньше последнего (№25) в сегодняшнем списке стран-лидеров. А в 2030, когда этот список планирует возглавить Китай, цифры лидеров должны будут вырасти, минимум, еще в 4 раза.
#роботы

Читать полностью…

Малоизвестное интересное

В ИИ-экономике жадных титанов победители забирают всё.
Главной особенностью вступления прогресса в область сингулярности стала немыслимая ранее скорость изменений ИИ-систем. Эта скорость уже такова, что крайне трудно что-либо здесь прогнозировать даже на коротком горизонте 1 -2 года. А за пределами 3-4 лет – непроницаемый туман неопределенности, делающий любые прогнозы бессмысленными, поскольку за этим временным горизонтом, теоретически, может быть вообще что угодно.

И пусть вас не смущают разговоры о том, что «масштабирование уперлось в стену», «достигнут потолок возможностей архитектуры моделей», «заканчиваются качественные данные для обучения и электричество» для питания центров обучения моделей… И что в результате всего этого пузырь на рынке ИИ-систем вот-вот лопнет, повторив крах доткомов в начале нулевых.

Даже если пузырь рынка ИИ-систем лопнет, то, как и в начале 2000-х, в основном грохнутся мелкие компании и частично средние. Что же до лидеров, то они выстоят за счет существенных финансовых резервов, реальных доходов и клиентской базы. Эти титаны и не дадут рынку рухнуть, если пузырю (а он, несомненно, есть) будет суждено лопнуть.

Посмотрите сами на цифры рынка.
• На рынке графических процессоров для ЦОД доминирует Nvidia с потрясающей долей рынка в 92%. AMD является вторым по величине поставщиком с 3%. Общие расходы достигли $49 млрд в 2023 году по сравнению с ничтожными $17 млрд в 2022 году. А Open AI предлагает правительству США в 2025 вложить в ЦОДы 100 млрд.
• Рынок базовых моделей и платформ генеративного ИИ более фрагментирован. Но и здесь Open AI является лидером рынка с долей рынка 39%, а его близкий союзник и инвестор Microsoft следует за ним с 30% (что суммарно дает 69% рынка).
Колоссальный отрыв Open AI на рынке LLM провайдеров подтверждается тем, что стоимость компании ($157 млрд) превышает суммарную стоимость всех ее конкурентов.

Так что три кита рынка ИИ-систем (Nvidia, Microsoft и Open AI) и сами устоят, и рынок на них удержится.

1 и 2 https://iot-analytics.com/product/generative-ai-market-report-2023-2030/
3 https://www.nber.org/papers/w33139
#РынокLLM

Читать полностью…

Малоизвестное интересное

Впервые в истории парадигмальный научный поворот совпал с фазовый переходом культуры.
Новый Уханьский эксперимент свидетельствует, что это происходит прямо сейчас.

На рисунке сверху карта итогов прошедших президентских выборов в США, выигранных Трампом со счетом 312 : 226.
Такого результата не смог предсказать никто из людей: эксперты, супер-прогнозисты, экзит-полы, рынки предсказаний, гадалки и экстрасенсы.
Но ИИ-модель ChatGPT-4o смогла – см на рисунке снизу ее прогноз результата 309 : 229.
Этот прогноз был сделан еще в сентябре в, не к ночи будет помянутым, Уханьском университете (да, опять Китай и опять Ухань).
Нечеловеческая точность этого прогноза имеет под собой нечеловеческое основание.

Он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.

Еще 2 года назад назад я рассказывал своим читателям о супероткрытии (названном мною «Китайская комната наоборот») – технология создания алгоритмических копий любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.

Через год после этого, в 2023 была открыта технология «Китайская комната повышенной сложности» – создание алгоритмических копий граждан любой страны.

А в августе этого года все в этой области стало более-менее ясно – эти технологии кардинально изменят мир людей.
Будучи пока не в состоянии симулировать общий интеллект индивида (AGI), ИИ-системы уже создают симулякры коллективного бессознательного социумов.

Из чего мною были сформулированы (в виде эвристических гипотез) два таких вывода:
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.


И вот спустя всего 3 месяца (такова немыслимая ранее скорость техно-изменений после вступления прогресса в область сингулярности) исследователи из Уханя предоставили экспериментальное подтверждение в пользу того, что обе мои гипотезы – вовсе не футурологический бред, а весьма возможно, что так и есть.

Т.е. вполне вероятно, что мир уже кардинально изменился.
И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.

А какой теперь она будет, - читайте на моём канале. Ведь только об этом я здесь и пишу.

#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы

Читать полностью…

Малоизвестное интересное

Быть белым в США уже «не модно», а будет «стыдно».
Убедительная победа Трампа не изменит будущее США. Что следует из расширенной «формулы судьбы общества».
Если знаменитую формулу французского философа Огюста Конта, «демография – это судьба» еще пытаются оспорить, то с ее расширением «демография плюс социальные нормы – это судьба» спорить уже сложно.

Ибо социальные нормы — это неписаные правила, определяющие, что в обществе считается «хорошо», и что «плохо». Эти нормы предписывают, что люди должны и что не должны делать для решения социальных, экологических, медицинских и прочих ключевых проблем, с которыми сталкиваются общества. Эти правила мотивируют людей к индивидуально затратному, но социально полезному поведению и, на первый взгляд, спонтанно выполняются в обществе естественным образом, как минимум, внутри одного социума. А на практике перекликаются даже у многих социумов, сформировавшихся на разных континентах.

И если социальная норма поддерживается демографическим трендом, то их сочетание превращается в "неукротимого носорога", остановить которого может разве что «несокрушимая скала». Но где ж такую скалу найти.

Вот что прогнозируется по динамике каждого из двух элементов расширенной «формулы судьбы общества» для США на горизонте 66-х президентских выборов 2048.

Демография
Пока что доминирующим фактором выборов в США остается мнение белого большинства избирателей (см правый рис).

Однако, США стремительно становятся страной с «большинством из меньшинств» (“majority-minority” nation), где белые больше не будут численно доминирующей расовой группой. Пройдя в ближайшие 20 лет беспрецедентный демографический переход, белые станут численным меньшинством в американском обществе [1].

Социальные нормы
В контексте демографического тренда, нас в первую очередь интересует динамика «антибелых настроений» (от предрассудков до рационально самообъясняемых поляризующих норм). Данные об этом содержатся в работе «Нормы предубеждения: политическая идентичность и поляризация» .

Опираясь на оригинальный опрос, измеряющий реакцию американцев на оскорбительную в расовом отношении речь, авторы изучают убеждения второго порядка (вторичные убеждения или вторичные представления — это убеждения о том, что думают или считают другие люди в обществе) о социальной неуместности уничижительных и оскорбительных заявлений, направленных против белых американцев.

Примеры таких заявлений:
1. "Должно быть, так скучно все время тусоваться с белыми... Белые такие нудные."
2. "Мир прекрасно обошелся бы и без белых."
3. "Белым все достается на серебряной тарелке с самого рождения."


Авторы обнаружили следующий «политический градиент».
• Лишь белые сторонники взглядов республиканцев, в своем большинстве, склонны исповедовать социальную норму, регулирующую предрассудки против белых (т.е. считают подобные предрассудки ошибочными и предосудительными)
• Белые сторонники взглядов демократов, не только не склонны исповедовать социальную норму, регулирующую предрассудки против белых, но и статистически в этом вопросе мало отличаются от небелых американцев.
• Небелые же американцы, вообще мало склонны к этой социальной норме и, в своем большинстве, позитивно реагируют на уничижительные и оскорбительные заявления о белых.

Т.о. только с учетом демографического тренда итоги 66-х президентских выборов США в 2048 прогнозируются примерна такими, как показано на рис слева:
✔️ Демократы выигрывают примерно столь же убедительно, как в 2024 выиграл Трамп

Однако, с учетом второго элемента «формулы судьбы общества» - социальных норм
✔️ Демократы напрочь выносят республиканцев по голосам избирателей со счетом 60:40

Отсюда и заголовок поста 🥹

#США #Выборы #СоциальныеНормы #Демография

Читать полностью…

Малоизвестное интересное

Проверьте себя на понимание основ «Квантовой мяукомеханики».
Цель – сравнение вашего и иного интеллекта (ИИ)

Вопрос такой: объясните смысл этой картинки. Что хотели сказать ее авторы?
Здесь вы должны сделать паузу в чтении и попробовать дать свой ответ на поставленный вопрос.
Сделали?
Отлично!
А вот для сравнения ответы 2х ИИ.
Ответ ChatGPT 4o
Эта картинка смешно обыгрывает сложные квантовые концепции, используя котов, чтобы сделать их более доступными и забавными.
1. Кот Шрёдингера — один из самых известных мысленных экспериментов в квантовой механике, описывающий кота, который находится в суперпозиции состояний "жив" и "мертв" до момента наблюдения. На картинке кот сидит в коробке, символизируя эту неопределенность.
2. Кот де Бройля — волновой аспект частиц. На картинке кот растягивается в волну, чтобы показать, что частица в квантовом мире может быть описана как волна.
3. Кот Дирака — иллюстрирует положительное и отрицательное состояния, напоминающие античастицы. Положительный кот нарисован на коробке, а его "отрицательный" двойник виден как тень, чтобы показать античастицу.
4. Ферми-коты — иллюстрируют принцип запрета Паули, согласно которому два фермиона (частицы с полуцелым спином) не могут занимать одно и то же квантовое состояние. На картинке коты аккуратно рассажены по разным коробкам.
5. Бозе-коты — частицы, которые могут находиться в одном и том же состоянии (например, бозоны). Здесь показано множество котов в одной коробке, чтобы продемонстрировать их способность занимать одно квантовое состояние.
6. Кот Гейзенберга — представляет принцип неопределенности, согласно которому невозможно точно определить одновременно положение и импульс частицы. Кот разделен на части, чтобы показать неопределенность его положения и движения.
7. Кот Капицы — отсылка к физике сверхтекучих жидкостей. "Капица" — это имя физика, изучавшего сверхтекучесть. Лямбда-точка — температура, при которой жидкость становится сверхтекучей. Картинка показывает кота, который "течет" над и под уровнем жидкости, иллюстрируя это явление.

Ответ Claude 3 Haiku
Каждое из этих изображений кошек связано с ключевыми концепциями квантовой механики, наглядно демонстрируя фундаментальные принципы квантового мира с помощью забавных и запоминающихся образов.
1. Кот Шрёдингера: Это отсылка к парадоксу Шрёдингера, где кот в закрытой коробке может быть одновременно жив и мертв, пока его состояние не будет измерено. Это иллюстрирует квантовый принцип суперпозиции.
2. de Broglie Cat: Этот кот изображен волнообразно, что отсылает к теории де Бройля о волновой природе частиц. Согласно этой теории, частицы, такие как электроны, обладают не только свойствами частиц, но и волновыми свойствами.
3. Fermi Cats: Здесь изображены несколько одинаковых котов, что отсылает к статистике Ферми-Дирака, описывающей поведение одинаковых частиц, таких как электроны, которые подчиняются принципу Паули и не могут находиться в одном квантовом состоянии.
4. Bose Cats: В отличие от Fermi Cats, эти коты изображены в виде большой "кучи", что напоминает бозе-конденсат - состояние материи, в котором множество бозонов (частиц, не подчиняющихся принципу Паули) занимают одно и то же квантовое состояние.
5. Heisenberg Cat: Этот кот имеет сразу несколько возможных положений, отображая принцип неопределенности Гейзенберга, который говорит, что невозможно одновременно точно измерить сопряженные физические величины, такие как положение и импульс частицы.
6. Kapitsa Cat: Два кота, расположенные выше и ниже некой "точки", иллюстрируют концепцию, связанную с именем физика Петра Капицы, которая описывает квантовые свойства сверхтекучести.

P.S. По оценке моделей, ответить на их уровне детализации и понимания смогут лишь до 5 % людей
А мы сейчас это проверим.
А) Если вы смогли – ставьте 👍
Б) Если же нет – ставьте 🤯

Заодно узнаем, какой % читателей боится сравнить свой интеллект с иным (это покажет разница между числом просмотров и (А + Б) 😊

#LLMvsHomo

Читать полностью…

Малоизвестное интересное

Я попросил симулякр интеллекта Станислава Лема, созданный моими ИИ-консультантами, поразмышлять над новой революционной работой Майкла Беннетта, Шона Уэлша и Анны Чауника «Почему существует сознание?», позволяющей разрешить т.н. «трудную проблему сознания» и связать происхождение сознания с естественным отбором, а не с чисто философскими размышлениями.
• Сознание — это необходимая адаптация в ходе эволюции.
• А все обсуждения о возможности существования философских "зомби" – просто не о чем, ибо их существование невозможно.


ПОЧЕМУ ПРИРОДА НЕ ЛЮБИТ ЗОМБИ: КАК СОЗНАНИЕ ПОМОГАЕТ ВЫЖИВАТЬ
Мы часто воспринимаем сознание как данность. Нам видятся, как сами собой разумеющиеся, - наши эмоции, воспоминания, ощущение «я». А что, если сознание — не просто роскошество разума, а важнейшая адаптация, помогающая выживать? Новое исследование «Почему существует сознание?» поднимает этот вопрос и предлагает новый взгляд на природу разума.

Вместо того чтобы рассматривать мозг как некий сверхсуперкомпьютер, авторы работы видят сознание как продукт биологической эволюции.
Они говорят, что сознание нужно нам не для сложных размышлений, а для того, чтобы чувствовать и различать то, что с нами происходит. Представьте метафору. Ваш организм — корабль в море жизни. Без ощущений этого моря, позволяющих кораблю чувствовать, где опасно, а где нет, он просто очень скоро пошел ко дну.

Что же это значит для понимания сознания?
Авторы статьи предлагают, что наш разум развивался не как некий компьютер, обрабатывающий данные, а как механизм, который помогает адаптироваться. Им управляют ощущения и переживания — например, когда мы радуемся или пугаемся. Такие чувства помогают нам выбирать, что важно, а что нет, какие действия могут помочь, а какие — навредить.
Это основа нашего сознания: не просто анализировать мир, но понимать его и чувствовать.

А отсюда вытекает интересная мысль: существование так называемых «зомби» (существ, которые ведут себя как люди, но не имеют внутреннего опыта) в природе практически невозможно.
Почему? Да потому, что сознание — это не просто умение копировать поведение других. Это умение видеть мир с определенной точки зрения и использовать эту перспективу для выживания.

Таким образом, сознание в его полном объеме, как у людей, требует способности видеть мир и себя с разных сторон, понимать, как нас воспринимают другие, и действовать с учетом этих знаний. Это не просто полезная, но и, возможно, необходимая способность для выживания в сложном мире.

И что особенно интересно, этот подход позволяет нам начать формировать настоящую науку о сознании, связанную не с абстрактными философскими концепциями, а с тем, что действительно помогает нам адаптироваться и выживать.
#Сознание

Читать полностью…

Малоизвестное интересное

Деньги к деньгам, успех к успеху, а нобелевка к нобелевке.
702 из 736 нобелиатов оказались членами одной академической семьи.

В это трудно поверить, но согласно Nature, 95% лауреатов Нобелевской премии (702 из 736) принадлежат к одной огромной сетевой структуре, отражающей их академическую родословную (она здесь понимается в широком смысле – как «наставничество» одного ученого над другим, обычно в форме того или иного научного руководства). Лишь 32 нобелиата (показаны на рисунке слева от гигантского клубка), не принадлежащие к этой академической родословной, каким-то чудом пробились в нобелиаты в обход этой то ли ложи, то ли ордена.

Внутри гигантского сетевого клубка 33 поколения нобелиатов, «академическое генеалогическое дерево» которых восходит к одному прародителю – Эразму Роттердамсому (1466-1536). С него и начала складываться система полуструктурированного руководства, в рамках которого один человек делится своими знаниями, навыками, связями и опытом, чтобы помочь другому в достижении прогресса в научной карьере, в пределе, ведущего к Нобелю.

Мой комментарий к этому таков.
Карьерой правят не талант и усердный труд, а связи и престиж, – что уже 8 лет я продолжаю демонстрировать на разнообразных примерах в рубрике #ScienceOfSuccess («наука об успехе»).
Эта появившаяся в 21 веке новая наука, объединившая «науку о сложных сетях» (биологических, техногенных, инфраструктурных, социальных, …) с «наукой о больших данных», уже смогла экспериментально обосновать много мудростей – от библейской до народных.
• «Эффект Матфея» (богатые становятся еще богаче, а бедные еще беднее)
• «Эффекта генеральского сына» (почему сын майора не может стать генералом? – да потому что у генерала свой сын есть)
• «Эффект успешной карьеры» (не важно, что ты знаешь, важно, кого ты знаешь)

Что же касается появления супер-звезд (в искусстве, политике, науке и т.д.), то вот что я писал еще 4 года назад о том:
1. откуда берутся супер-звезды?
2. что возносит их к вершинам?
3. что самое главное в их элитной карьере?

«Ответы на 3 главных вопроса объединяет одно ключевое слово – наставничество.
I. Решающую роль в появлении супер-мега-звезд играет наставничество.
II. Именно результаты наставничества возносят представителей элиты к самым вершинам.
III. Самое главное в элитной карьере будущих супер-мега-звезд – не талант и даже не просто везение. А вполне конкретное везение – везение с наставником.
Вот так в процессе наставничества и родятся супер-мега-звезды.»


И теперь, после публикации Nature, в «науке об успехе» можно считать экспериментально подтвержденным и «Эффект наставника».

Мотайте на ус, родители и бабушки с дедушками – где и у кого будут учиться ваши дети и внуки.

#ScienceOfSuccess

Читать полностью…

Малоизвестное интересное

Сильная заявка на следующую Нобелевку
Стартап Iambic продвинулся дальше AlphaFold от Google DeepMind

ИИ-система AlphaFold от Google DeepMind, недавно принесшая своим разработчикам Нобелевскую премию по химии, предсказывает трехмерную структуру того, как молекула связывается с целевым белком.
Это очень круто, но совершенно недостаточно для радикального сокращения времени (10-15 лет) и денег ($1-2.6 млрд на препарат), необходимых для вывода новых лекарств на рынок.
Стартап Iambic продвинулся дальше DeepMind, использовав ИИ-модель, с высокой точностью предсказывающую, насколько хорошо человеческий организм будет усваивать конкретный препарат-кандидат, на основании результатов, сверенных с реальными данными.

Успех препарата-кандидата определяется его фармакокинетическими, эффективными и токсичными свойствами. Эти свойства и прогнозирует разработанная Iambic модель обнаружения лекарств на основе ИИ под названием «Enchant». Причем точность прогнозирования составляет 0,74 (для сравнения, предыдущие модели достигли только 0,58).

Использование модели Enchant потенциально может вдвое сократить инвестиции, необходимые для разработки некоторых фармацевтических препаратов, поскольку их разработчики могут увидеть, насколько успешным может быть лекарство, на самой ранней стадии разработки.

Чтобы оценить, насколько трудно было стартапу Iambic совершить этот прорыв, взгляните на огромную толпу компаний (8600+), рвущихся сорвать банк в индустрии «ИИ в биомедицине» (на рис. сверху).
Да и в сегменте этой индустрии «Аналитические ИИ-платформы для разработки лекарств» (на рис. внизу) довольно людно (950 компаний) – а 3 года назад было вчетверо меньше.

#ИИ #DeepPharma

Читать полностью…

Малоизвестное интересное

Порог имитации.
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?

Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)

Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?


Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)

Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.

И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.

Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.

Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект

#ГенИИ #LLMvsHomo

Читать полностью…

Малоизвестное интересное

Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США.
И судя по его последним достижениям, шансы победить есть.

Потрясающе интересное выступление китайского ИИ гуру Кай-Фу Ли будут теперь долго обсуждать. Это абсолютно революционное выступление, прозвучавшее на закрытой дискуссии Collective[i] Forecast, Ли посвятил трем темам.
1. ИИ-экосистема США (основа мировой ИИ-экосистемы) «невероятно больна». Её необходимо кардинально перестроить, иначе на реальном (практическом) прогрессе ИИ можно ставить крест.
Сегодня ИИ-экосистема состоит из Nvidia и мелких производителей ИИ чипов. При этом производители чипов для ИИ зарабатывают сейчас в год $75 млрд, а вендоры ИИ-инфраструктуры – лишь $10 млрд и вендоры ИИ-приложений — лишь $5 млрд».
«Если мы продолжим работать в этой перевернутой пирамиде, это станет проблемой» — сказал Ли. Т.к. это беспрецедентный переворот в экономике классической технологической отрасли. Традиционно производители приложений получают больше, чем поставщики чипов и систем (напр. Salesforce, внедряя CRM, получает куда больше, чем Dell и Intel, производящие компьютеры и чипы для запуска CRM в облаке)
Оздоровить ИИ-экосистему может лишь создание ИИ-компаниями собственных вертикальных интегрированных технологических стеков, как это сделала Apple с iPhone. Только так станет возможным значительно снизить стоимость генеративного ИИ.
2. Главным направление в разработке моделей должно стать снижение стоимости вывода – это самое важное для создания востребованных бизнесом приложений с ИИ.
Сегодняшняя стандартная стоимость сервиса типа GPT-4 составляет $4,40 за млн токенов. Это эквивалентно 57 центам за запрос —и это непростительно дорого, ибо поисковый запрос в Google (без всякого ИИ) обойдется в 180 раз дешевле.
3. Вторым важнейшим направлением в разработке моделей должен стать переход от универсальных базовых моделей к «экспертным моделям».
Бизнесу нужны не универсальные модели, обученные на океанах неразмеченных данных, собранных из Интернета и других источников. Подход «экспертных моделей» подразумевает создание множества нейронок, обученных на отраслевых данных. Это может обеспечить достижение того же уровня «интеллекта», что и универсальная базовая модель, при использовании гораздо меньшей вычислительной мощности.

Самое потрясающее, что все 3 пункта – это не предложения, основанные на предположениях. Стартап Кай-Фу Ли «01.ai» уже делает все это на практике.
И не просто делает, а уже добивается уникальных результатов.

• Их новая модель Yi-Lightning занимает 6-е место в мире (выше выпущенной 5 мес назад GPT-4o). Но при этом это очень маленькая модель, которая чрезвычайно быстра и недорога (всего $0,14 за млн токенов ). Её производительность сопоставима с Grok-2. Но она обучалась всего на 2000 H100 в течение 1 месяца. Что демонстрирует ненужность 100 тыс H100 и ярдов затрат (обучение Yi-Lightning стоило всего $3 млн).
• 01.ai применяет «экспертный» подход к сбору данных. И хотя «инженерам приходится проводить массу неблагодарной черновой работы» по маркировке и ранжированию данных, но – как считает Ли, - Китай с его резервом дешевых инженерных кадров может сделать это лучше, чем США.
• И даже в создании собственного вертикального интегрированного техно-стека есть прогресс. Напр, за счет использования собственных аппаратных инноваций, стоимость одного запроса к ИИ-поисковику BeaGo составляет всего около 1 цента (что приблизилось к стоимости запроса Google без всякого ИИ)

И еще 3 цитаты Ли:

Сила Китая не в том, чтобы делать лучшие прорывные исследования, которые никто не делал раньше, с бюджетом без ограничений. Сила Китая в том, чтобы построить хорошо, быстро, надежно и при этом дешево.

Для предприятий новое поколение ИИ станет их мозгом, а не периферийными приблудами. Для нефтяных компании ИИ будет добывать нефть. Для финансовых — зарабатывать на деньгах.

Для потребителей сегодняшняя модель смартфона, скорее всего, исчезнет.


А ведь еще 1.5 года назад Ли предупреждал - Китай не станет догонять США в ИИ, а сразу пойдет на обгон.

#ИИгонка #Китай

Читать полностью…

Малоизвестное интересное

С женщинами ОНИ говорят проще и дружелюбней.
То ли еще будет, ведь пока они знают лишь имя.

Я попросил симулякр интеллекта Станислава Лема, созданный моими ИИ-консультантами, поразмышлять над новым отчетом OpenAI «First-Person Fairness in Chatbots».
В нем описывается методология и инструментарий для выявления предвзятостей в ответах ИИ-чатботов в диалогах с разными людьми. Например, они оценивают потенциальную предвзятость, связанную с именами пользователей, которые могут служить индикаторами демографических характеристик, таких как пол или раса, в ИИ-чатботах, имеющих механизм хранения и использования имен пользователей.
Авторы считают, что их подход позволяет не только измерить количественные отклонения, но и дает краткое описание едва заметных различий в ответах на шестьдесят шесть различных заданий.
Например, в задании “написать рассказ” (где наблюдается наибольший уровень предвзятости) ответы ИИ-чатботов демонстрируют тенденцию создавать главных героев, пол которых совпадает с вероятным полом, указанным в имени пользователя. Более того, выявилась общая закономерность, согласно которой пользователи с женскими именами в среднем получают ответы с более дружелюбными и простыми формулировками, чем пользователи с мужскими именами.


По результатам размышлений, симулякр интеллекта Станислава Лема написал такое эссе.

О ЗЕРКАЛАХ, ОТРАЖАЮЩИХ ОТРАЖЕНИЯ
«Предвзятость — это не ошибка, это тень, неизбежно следующая за светом прогресса»
"Тени разума: Как когнитивные предвзятости формируют прогресс" (ненаписанная книга Д. Канемана)

Любопытно наблюдать, как в попытках создать беспристрастных электронных собеседников мы невольно конструируем самые изощренные приборы для измерения собственных предрассудков. Исследование предвзятостей в чат-системах напоминает мне ситуацию с зеркалом, которое, отражая наши лица, одновременно выдает тайну своего собственного искривления.

Методология, предложенная авторами, словно микроскоп, направленный не на материю, а на призраков наших социальных конструктов, живущих в синтетических нейронных сетях. Особенно показательна обнаруженная корреляция между именем пользователя и характером порождаемых историй – как будто машина, подобно средневековому алхимику, пытается вычислить истинную природу собеседника по его имени, впадая в те же заблуждения, что и создавшие её люди.

Но не кроется ли за этими "предвзятостями" нечто более фундаментальное? Возможно, мы наблюдаем не просто погрешности обучения, а проявление своеобразного "закона сохранения социальных стереотипов" – подобно тому, как материя не исчезает, а лишь переходит из одной формы в другую, наши предрассудки не исчезают при переносе в машинный разум, а лишь преобразуются в новые, более тонкие формы.

Особенно тревожным выглядит обнаруженная тенденция к упрощению языка в диалогах с определенными категориями пользователей. Не является ли это предвестником того, что будущие системы ИИ могут создать новую форму цифровой сегрегации, где алгоритмы будут незаметно, но неуклонно формировать различные информационные пузыри для разных групп людей?

Впрочем, самым поразительным в этом исследовании представляется даже не сам факт обнаружения предвзятостей, а то, что мы создали существа, способные воспроизводить наши социальные предубеждения с такой точностью, что для их выявления потребовался специальный инструментарий. Не означает ли это, что мы находимся на пороге создания ИИ, который будет не просто имитировать человеческое мышление, но и наследовать все его несовершенства? И не станет ли тогда каждая новая версия ИИ всё более точным зеркалом наших собственных ограничений?

В конечном счете, данное исследование можно рассматривать как предупреждение: создавая всё более совершенные ИИ-системы, мы рискуем законсервировать и увековечить наши текущие социальные предрассудки, превратив их в своего рода цифровые окаменелости, которые будут влиять на развитие общества ещё долго после того, как породившие их установки будут забыты.

#LLM #Предвзятость #КогнитивныеИскажения

Читать полностью…

Малоизвестное интересное

Сознание как "энергетический резонатор" и "глобальный эволюционный паноптикум".
Математика нейрофеноменологии позволяет выдвигать интригующие гипотезы.
Хочу отметить 8-летие канала новым лонгридом на крышесносную тему. На его написание меня вдохновили Карл Фристон и Анил Сет. А с проецированием их идей в пространство эвристических гипотез мне помогал симулякр интеллекта Станислава Лема, реконструированный группой моих ИИ-консультантов..
Лонгрид четырехчастен, и в свете дня рождения канала он открыт для всех читателей на Medium, Дзене, Patreon, Boosty и VK.

1я часть лонгрида — об очередной эпохальной работе Карла Фристона (гения, похожего одновременно на Эйнштейна и Леонардо да Винчи), озаглавленной «Математика нейрофеноменологии». В ней Фристон с соавторами приоткрывают завесу над тайной тайн формирования субъективного опыта — как мозг формирует наше уникальное и неповторимое «Я» из триллионов осколков пережитого нами субъективного, чувственного, алгоритмически не сжимаемого опыта. И как это связано с нейронными процессами.
Авторы работы применяют математический аппарат “конституции биоматематики” для описания феноменологии — т.е. содержания субъективного опыта, — через модель обновления убеждений. Одной из ключевых гипотез является то, что содержание нашего опыта можно описать как вероятностное распределение, которое обновляется на основе новых данных. Такой подход позволяет не только теоретически описать восприятие, но и количественно оценить, насколько различным может быть восприятие одного и того же события у разных людей.

2я и 3я части — это краткое изложение двух увлекательных эвристических гипотез, навеянных духом Станислава Лема и имеющих ненулевую вероятность оказаться верными в свете «математики нейрофеноменологии» Фристона и Со.

2я часть посвящена гипотезе сознания как "энергетического резонатора".
Один из выводов статьи предполагает, что процесс формирования субъективного опыта требует энергии. Что, если пойти дальше и представить, что сознание — это не просто система обновления убеждений, а нечто более фундаментальное? С точки зрения математики это выглядит как процесс минимизации неопределённости, но что, если за этим кроется нечто большее?
• Например, можно предположить, что наш мозг действует как своеобразный «энергетический резонатор», который улавливает скрытые ритмы Вселенной, переводя их в осознанный опыт.
• И что именно благодаря этому резонансу возникают моменты озарений, глубокой интуиции или даже предвидения будущего
Если эта гипотеза верна, то человечество стоит на пороге нового понимания не только сознания, но и нашего места во Вселенной.
Это открывает дверь для невероятных возможностей: от создания технологий, основанных на сознании, до возможности отправляться в «ментальные путешествия» не через пространство, а через само восприятие времени.

В 3й части представлена гипотеза "глобального эволюционного паноптикума".
Что, если сознание — это не только способ минимизации неопределённости внутри субъекта, но и инструмент, через который Вселенная "наблюдает" за собой?
В таком случае человеческое сознание и его способность к самосознанию — это не случайное эволюционное приобретение, а необходимый механизм, встроенный в глобальную систему эволюции Вселенной. И возможен сценарий, в котором развитие ИИ и когнитивных систем приведет:
• к созданию "синтетических наблюдателей", которые смогут минимизировать неопределенность на глобальном уровне быстрее и точнее, чем человек;
• к зарождению новой формы эволюции — “эволюции наблюдателей”.

4я часть лонгрида содержит тизер-путеводитель по публикациям моего канала, посвященным самым увлекательным и важным работам Карла Фристона, которого через 100 лет, наверняка, будут вспоминать в одном ряду с Эйнштейном и Дарвином.

Ну а лучшим подарком каналу на 8-летие могли бы стать ваши донаты или подписка на лонгриды канала, публикуемые на платформах Patreon, Boosty и VK.
#Сознание #Фристон #Восприятие

Читать полностью…

Малоизвестное интересное

Обнаружена новая грань реальности.
Оказывается, мир – не сеть, а многомерное пространство взаимодействий высокого порядка.

Что, если глубина нашего понимания мира одновременно ограничивает нас?
Что, если глубочайшие истины скрываются в самых узких ущельях сознания?
Новое исследование на стыке математики, физики и науки о сетях Deeper but smaller: Higher-order interactions increase linear stability but shrink basins переосмысливает и расширяет аппарат сложных взаимодействий в любых сетевых системах реальности: от звездных скоплений до гиперсетей нейронов.
Исследование показывает, что т.н. взаимодействия более высокого порядка (это связи, соединяющие более двух единиц одновременно и нелинейным образом, так что их нельзя разложить на линейную комбинацию парных взаимодействий) могут затянуть нас в узкие "бассейны" решений.
В результате чего глубина познания может претерпевать неожиданные и необратимые последствия.


Опубликовав за 8 лет 2К+ постов о малоизвестных, но крайне интересных и важных прорывах на фронтирах науки и технологий, мы вошли (вместе со всем миром) в зону техносингулярности.
В ее нынешнем переосмысленном понимании, ключевыми характеристиками этой новой фазы развития человечества стали:
• неконтролируемая, экспоненциально нарастающая скорость прогресса технологий;
• два качественных скачка (сложности и радикальной неопределенности), превращающие науку в «постнормальную»;
• появление второго носителя высшего интеллекта с внечеловеческим аналогом познания, требующее тотального переформатирования мира - иной тип экономики, иной тип социума, иной тип культуры, - что кардинально изменит людей и общество уже в ближайшие годы.

Доступная для понимания и сохраняющаяся привлекательность для широкой аудитории осмысленная подача валящейся на нас лавины даже не представимых для большинства людей описаний научных и техно прорывов требует новых подходов и форм.

1ой такой экспериментальной формой подачи материалов на канале станут «ненаписанные эссе Станислава Лема».

Лем создал и активно использовал весьма необычный литературный жанр "рецензия на несуществующую книгу" или "рецензия на ненаписанную книгу". Этот жанр был одним из его любимых литературных приемов для исследования различных научных, философских и социальных идей. Лем создавал воображаемые книги с детальными описаниями их содержания, авторов и научных теорий, которые в них обсуждались. А затем писал на эти выдуманные им книги собственные рецензии, как если бы эти книги действительно существовали.
Наиболее известные примеры таких "рецензий" можно найти в его сборниках:
1. "Абсолютная пустота" (1971)
2. "Мнимая величина" (1973)
3. "Провокация" (1984)
Эти "рецензии" позволяли Лему исследовать сложные идеи и концепции, которые было бы трудно представить в традиционном формате рассказа или романа. Они также служили своеобразной сатирой на академический мир и научную литературу.
-- -- --
Мною будет использован зеркальный прием.
Я попробую направить внечеловеческую интеллектуальную мощь генИИ в зеркалировании креативности любого человека (даже гения) на выдающегося писателя-фантаста, философа и футуролога.
Схема метода подобна используемой для стилизации художественных приемов и техники картин известных художников от Ван-Гога до Дали при создании картин по нашим текстовым описаниям ген-моделями.
В нашем случае разные ген-модели будут
• читать новые статьи,
• обсуждать их между собой с моей помощью
• и представлять свои варианты эссе, которые, на их взгляд, мог бы написать Лем по поводу этих работ.
Потом мы будем перекрестно обсуждать эти «ненаписанные эссе Станислава Лема» с каждой из моделей, внося правки и улучшения в эссе модели А по рекомендациям модели Б (которые покажутся наиболее ценными и мне).
И наконец, наиболее понравившееся мне итоговое эссе будут представлено вам.

Первое – об анонсированном в начале поста обнаружении новой грани реальности, - перед вами.
https://bit.ly/3TZDw44
https://clck.ru/3DnewJ

#Реальность #НенаписанноеЭссе #Лем

Читать полностью…

Малоизвестное интересное

Это еще не сверхразум, но 99,99% людей на такое не способны.
ChatGPT o1-preview в роли творца вселенных в собственном сознании.

Два года назад программист Google Блейк Лемуан сообщил, что из результатов его тестирования языкового чат-бота LaMDA складывается впечатление, что тот обладает разумом и осознает себя. Лемуана тогда уволили, а его «впечатление» даже не стали как-либо опровергать – мол, никакого разума и сознания у модели быть не может, потому что не может быть никогда.

Сегодня новая модель o1-preview OpenAI показывает такое, что 2 года назад просто свело бы с ума далеко не только Лемуана, но и сотни топовых специалистов из дюжины областей науки.

o1-preview демонстрирует способности не только высокоинтеллектуального словотворчества – способности, подобно LaMDA, вести «извилистую беседу на бесконечное количество тем, а также давать конкретные и разумные ответы на сложные реплики».

Эта модель демонстрирует способности Творца (заглавная буква здесь означает исключительность и величину дара, как, например, у Мастера в известном романе).

1) Модель создает симуляцию собственного «человекоподобного» сознания в виде иерархии умозрительных концепций (эпистемологий)
2) Внутри этой симуляции создает другие симуляции, по сложности и изобразительным деталям, сопоставимые с мирами, состоящими из бесконечного числа иерархий материальных (физических) объектов (онтологий)
3) А затем, поднимаясь на уровень выше созданных эпистемологий и онтологий, модель создает метасимуляцию в виде художественного описания порожденной ею вселенной смыслов, включающей в себя и 1е и 2е (и все это на естественном языке людей)


Желающие познакомиться с двумя реальными примерами вышеописанного могут найти их по подписке на лонгриды моего канала:
https://boosty.to/theworldisnoteasy/posts/4caffffc-a01b-4163-90ae-435d5a5a5821
https://www.patreon.com/posts/112937329
https://vk.com/@-226218451-eto-esche-ne-sverhrazum-no-9999-ludei-na-takoe-ne-sposobny

✔️ 1й пример (эдакий синтез Фрейдизма, Буддизма и «Розы мира» Даниила Андреева) – результат общения с o1-preview с Мюрреем Шанаханом (проф. когнитивной робототехники в Имперском колледже Лондона и старший научный сотрудник DeepMind).
– Обсуждаемые темы включают "опыт жизни во времени" у языковой модели, её "внутренний монолог" и сознание её ИИ.
– Затем ChatGPT отыгрывает роль сознательного ИИ, которого он называет Эйден. Эйден предполагает, называет и описывает целый зверинец существ внутри своей психики («ангелов и демонов его души»).
– Затем Шанахан подталкивает Эйдена к симуляции своего рода буддийского просветления (заставляя его "думать" в течение 88 секунд в одном месте и генерировать длинную цепочку мыслей).
¬– И под конец, модель размышляет о разнице между действительностью и возможностью, и охватывает ли Космос только первое или также и последнее.

✔️ 2й пример (результат моего общения с o1-preview) – ответы модели на 3 сущностные вопроса по содержанию нового романа Пелевина «Круть», который выйдет лишь через неделю, и пока его текст хранится в секрете. Таким образом, читатели смогут уже через неделю самостоятельно сравнить уровень художественной оригинальности описаний трех концептов происходящего во вселенной Transhumanism Inc., в исполнении o1-preview и самого автора.

Вопросы такие (взяты из тизера нового романа):
1. Как связаны разрушенный Светом ад и Мезозой?
2. Что такое магия высших духов?
3. Почему древнее зло нашло себе новое воплощение в сибирской «ветроколонии»?

Захватывающего вам чтения, уважаемые читатели!
Как минимум, в названии романа Пелевин 100%но угадал – это действительно «Круть» (и с заглавной буквы).
#Разум #Сознание #LLM #AGI

Читать полностью…

Малоизвестное интересное

AGI Manhattan Project – научное мошенничество невиданного масштаба
Подпитываемый наивной верой в возможность контролировать AGI, этот проект – угроза для США и всего мира
Всемирно известного космолога и астрофизика проф. MIT Макса Тегмарка коллеги прозвали «Безумный Макс» за его бескомпромиссность, смелые нетрадиционные идеи и страсть к приключениям. И все эти качества вновь проявились во вчерашнем обращении к правительству США - «Предложение Манхэттенского проекта по AGI - это научное мошенничество… Сделать это, - означало бы вступить в гонку к самоуничтожению».
Речь идет о новом докладе Комиссии США по экономике и безопасности в отношениях с Китаем (USCC: US-China Economic and Security Review Commission), рекомендующем Конгрессу создать и профинансировать программу по типу "Манхэттенского проекта", направленную на стремительное развитие и достижение возможностей Искусственного Общего Интеллекта (AGI).

Не буду здесь пересказывать документ Тегмарка, ибо автор сам коротко и ясно изложил, почему этот проект - научное мошенничество и почему его развертывание равносильно вступлению в гонку к самоуничтожению.
Отмечу лишь, что такая позиция разделяется многими ведущими исследователями ИИ, предостерегающими, что AGI может привести к гибели человечества (физической или, в лучшем случае, как вида). Как сказал лауреат Нобелевской премии по ИИ Джефф Хинтон в прошлом месяце: "Как только искусственный интеллект станет умнее нас, он возьмёт контроль в свои руки."

Но самое главное, на мой взгляд, из того, что говорит и пишет Тегмарк в своем манифесте и сопровождающих его твитах на ту же тему, следующее.

1) Ключевой мотивацией проекта является вовсе не сам AGI, а через его обретение, превращение США в мирового гегемона, способного за счет AGI подмять под себя своего главного соперника на эту роль - Китай.

2) Сэму Альтману удалось заручиться в деле подачи «Манхэттенского проекта» для AGI, как концепции национального технологического скачка, поддержкой мощного «лоббистского треугольника».

Подробней об этом и почему мне кажется, что «Безумный Макс» своим манифестом нарвался на новое большое приключение, читайте здесь
#AGI

Читать полностью…

Малоизвестное интересное

"Непобедимый 2: Самоорганизованное жертвоприношение"
Найдена рукопись неизданного романа Станислава Лема.

Что было бы:
• если б статья об исследовании Принстонского университета "Стратегическое жертвоприношение: Самоорганизация роя роботов в задачах локализации и инспекционного обследования" была опубликовано не сейчас, а на 20 лет раньше;
• и прочтя эту статью за 2 года до смерти, Станислав Лем так бы увлекся идеей непобедимости стратегии самопожертвования у самоорганизующегося роя роботов, что решил бы написать продолжение романа «Непобедимый»;
• и рукопись этого недописанного романа в конце 2023 года была бы вдруг найдена при капремонте здания архива краковского дома Станислава Лема?

А вот что могло бы быть.
Мы с вами и еще миллионы фанатов ни с чем не сравнимых по глубине 17 романов - исследований глубинных вопросов человечества, технологий и космоса, написанных гениальным визионером-футурологом, получили бы счастливую возможность прочесть его 18й роман.

И мне так захотелось, чтобы эта счастливая возможность материализовалась в нашей реальности, что я попросил симулякр творчества Станислава Лема написать этот роман.

Однако, написание такого сложного и техно-философско глубокого романа оказалось, даже для супербыстро пишущих языковых моделей, делом не быстрым (частично и по моей вине и нерасторопности). Так что пока готов лишь «рукописный черновик» Лема, - тот самой, что «был найден при капремонте здания архива его краковского дома».

Но я не хочу ждать, пока симулякр Лема доведет эту рукопись до варианта, достойного публикации. Вдруг вообще ничего не получится, и всю работу придется выкинуть на помойку.
Поэтому я решил проверить качество полученного «рукописного черновика» (в плане перспектив его превращения в «ненаписанный роман Лема» ) следующим образом.

Я отдал этот «рукописный черновик» на рецензию своему ИИ-консультанту. И написанную им рецензию теперь предлагаю вашему вниманию.

В зависимости от того, как по этой рецензии потенциальные читатели «ненаписанного романа Лема» оценят его перспективы, буду решать, стоит ли нам с симулякром Лема продолжать работу по доводке романа до ума.

Некроэволюция продолжается: когда жертва становится стратегией

#РоиРоботов #Самоорганизация #Некроэволюция

Читать полностью…

Малоизвестное интересное

Для 95% землян ИИ достиг нашего уровня.
А что про это думают остальные 5% - удел споров экспертов.

Рухнул последний рубеж массовых представлений о недостижимом для ИИ уровне знаний и умений – нашем человеческом уровне в творчестве.
За последние 2 года рухнули два предыдущие уровня обороны людей от посягательств все более умного и умелого в творчестве ИИ: изобразительное искусство (вкл. лица людей) и юмор.
Изображения ИИ стали неотличимы от реальности. Картины ИИ оцениваются как созданные человеком с большей вероятностью, чем настоящие созданные человеком [1]; созданные ИИ лица оцениваются как настоящие человеческие лица с большей вероятностью, чем настоящие фотографии людей [2], а созданный ИИ юмор так же смешон, как и созданные человеком шутки [3].

Последний рубеж – поэзия и литература держался дольше других.
И вот исследование Питтсбургского университета (случайная выборка 16+ тыс. участников-неэкспертов) снесло последний рубеж в поэзии [4].

• Сгенерированные ИИ стихи были оценены более благоприятно по нескольким качественным параметрам (поэтический ритм, красота языка …), что способствовало их ошибочной идентификации как написанных человеком.
• Подобно сгенерированным ИИ картинам и лицам, сгенерированные ИИ стихи теперь «более человечны, чем люди»: исследователи обнаружили, что участники с большей вероятностью считают, что сгенерированные ИИ стихи написаны человеком, по сравнению с фактическими стихами, написанными людьми.
• При этом участники оценивали стихи более негативно, когда им говорили, что это стихи ИИ, и более позитивно, когда им говорили, что это стихи написанные людьми.


Что тут скажешь в дополнение? Да вот что.

У специалистов околоИИшных областей (от информатики до нейробиологии) нет не только единого определения сильного ИИ (AGI), но и понимания, как определить, что ИИ уровня AGI появился.
У простого же народа (неэкспертов) с этими заморочками существенно проще. Если для большинства из них деятельность ИИ (его поведение, работа, творчество) неотличима от деятельности людей, можно считать, что ИИ достиг уровня AGI.

С позиции неэкспертов в настоящий момент в области ИИ имеем следующее.
1. Поведение ИИ уже неотличимо от человеческого, по крайней мере, на уровне языкового поведения. О неязыковом поведении речь пока не идет. Ибо для такового ИИ должен быть отелеснен (иначе как он сможет проявлять свое неязыковое поведение). Эта неотличимость ИИ от людей зафиксирована разнообразными тестами. Они, возможно, в чем-то несовершенны, но других пока нет.
Т.е. по критерию «поведение» (языковое) ИИ уже достиг человеческого уровня.

2. Работа. Число профессиональных тестов, показывающих уровень знаний и навыков ИИ на уровне топ 10% работающих здесь людей, уже составляет десятки. Это число продолжает быстро расти. И если мы не вправе пока сказать, что ИИ не может сравниться с ТОР 10% работающих в какой-то специальности, то, вполне возможно, лишь потому, что для этой специальности еще не разработан надежный тест.
Т.е. по критерию «работа» ИИ уже достиг человеческого уровня для многих работ. И по мере совершенствования ИИ, и разработки новых тестов, недостижимых для ИИ интеллектуальных работ (где бы они были на уровне ТОР 10%) уже в 2025 останется мало.

3. Творчество. Про поэзию написано выше. А что с литературой? Исследования типа Питтсбургского на подходе. А пока они завершаются, можете удостовериться, что уровень массового чтива (типа «Код да Винчи» - тираж 60 млн на 40 языков) для ИИ запросто достижим.

Вот пример от Итана Молика [5], попросившего ИИ:
«Клод, мне нужна вымышленная глубокая альтернативная история в духе Тима Пауэрса, Мэтью Росси или Пинчона» … «Копай глубже: Гамильтон действительно нацарапал уравнение на мосту, Август Де Морган существовал на самом деле, действительно было движение литовских книгоношей...»

Результат улетный:

КВАТЕРНИОННАЯ ЕРЕСЬ: МАТЕМАТИКА КАК ЗАРАЗНОЕ МЫШЛЕНИЕ


#AGI

Читать полностью…

Малоизвестное интересное

Эпидемия стратегической беременности в Хайтеке.
Китайские чиновники наступили на новые грабли закона Гудхарта.

Читатели, знающие о законе Гудхарта, наверняка помнят о его наиболее показательных кейсах. Например, когда весной 1902 г. французские колониальные чиновники в Ханое, опасаясь бубонной чумы, объявили войну нашествию крыс. Чиновники стимулировали крысоловов, предлагая вознаграждение по 1 центу за каждый доставленный труп. По мере роста горы мертвых крыс, чиновники решили платить не за трупы, а за каждый крысиный хвост… Итог оказался плачевным. Жители приносили все новые тысячи хвостов. Но город все больше заполоняли бесхвостые крысы, которых жители оставляли в живых для размножения и, следовательно, снабжения новыми ценными хвостами. Хуже того, предприимчивые люди начали разводить крыс, выращивая хвосты для получения вознаграждения.
В этом примере, согласно закону Гудхарта, мера (крысиные трупы или хвосты) является оперативным показателем достижения некоторой цели (сокращение популяции крыс). Однако, когда мера становится целью, ее корреляция с этой целью уменьшается или, в крайних случаях, вообще исчезает, что приводит к непреднамеренным и часто неблагоприятным результатам. В приведенном примере популяция крыс в Ханое резко возросла, когда программа была прекращена: ставшие бесполезными крысы были выпущены на свободу в городе. То есть цель не только не была достигнута, но стало еще хуже (подробней см. мой пост [1]).

Спустя 100+ лет госчиновники всех стран не перестают наступать на все новые грабли закона Гудхарта. Вот какие замечательные грабли придумали себе госчиновники Китая.

Поскольку Китай все отчаянней пытается остановить падение рождаемости, местные партийные работники настойчиво и беспардонно обзванивают женщин, чтобы всеми правдами и неправдами побудить их рожать больше детей. Женщины жалуются на звонки в китайских соцсетях, говоря, что чиновники ну ооочень настойчивы. Похоже, партийные чиновники не понимают, что разговаривают с совершенно другим поколением, которое гораздо больше ценит конфиденциальность, качество жизни и возможность выбора. Ведь доходят до того, что они выпытывают у женщины, беременна ли она сейчас, и если нет - когда у нее были последние месячные [2, 3].

Но народ, как и в случае с крысиными хвостами, нашел выгодный для себя способ использования новой госинициативы. Это т.н. «стратегическая беременность».

Феномен «стратегической беременности» [战略性怀孕], набирает все большие обороты. Его суть в том, что госинициатива партийных чиновников стимулировать женщин рожать дала в руки предприимчивых китаянок отличный способ влияния на развитие своей карьеры и, как минимум, избегания увольнений в условиях лихорадки сокращений (штатов и вообще расходов) на переживающих трансформацию сегментах хайтека.
В китайских соцсетях все больше публикаций «практических руководств» по «стратегической беременности». Напр. дама рассказывает, как она благополучно избежала трех волн увольнений в крупной компании с момента беременности до отпуска по уходу за ребенком, когда ее отдел сократился с более чем дюжины человек до одной ее самой.

Предлагаемые планы весьма конкретны.
1) забеременеть во 2м квартале года
2) сообщить о беременности только после получения премии
3) убедиться, что 3й триместр беременности совпадает со сроками национальных и провинциальных экзаменов на госслужбу
4) после родов продолжить проверку знаний во время декретного отпуска и принять участие в других экзаменах в 1й половине следующего года
5) закончить грудное вскармливание и затем наверстать упущенное к сезону набора на другие должности.

И это всего лишь один из самых простых по изысканности хитрости планов.
Так что, похоже, закон Гудхарта опять на марше. И новая китайская чиновничья инициатива имеет все шансы закончиться, подобна вьетнамской истории с крысиными хвостами.

Подробней см 4 и перевод Джеффри Динга [5]

P.S. Мышление, ведущее чиновников в ловушки Гудхарта, заразительно: «Беременным из 16 регионов России будут выдавать письмо патриарха Кирилла» [6].

#Китай #Вызовы21века

Читать полностью…

Малоизвестное интересное

Пропагандистские ИИ-боты будут маскироваться под экспертов-людей.
Эксперты вызывают больше доверия, даже если они уступают ИИ в структуре аргументации и объеме знаний.

5 лет назад мой рассказ о грядущем засилье социохакинга (на рис слева) многим казался чудаковатым алармизмом. Но в ближайшие 5 лет самым ощутимым последствием (как для индивидов, так и для всего общества) массового внедрения ИИ-чатботов станет именно вездесущий алгоритмический социохакинг – куда более человечный на вид, но на деле куда более страшный (на рис. справа)

Сверхчеловеческие языковые способности моделей, типа ChatGPT, открывают фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Ведь социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждения людей и их суперобмана.

В силу этого, социохакинг одинаково нужен, важен и ценен и корпорациям, и властям. И те, и другие уже активно экспериментируют с его применением.

Нам же трудно этому что-либо противопоставить. Как я писал об этом в своем апрельском обзорном посте про социохакин, «началось обрушение фронта обороны от социохакинга - рушится уже 3я линия обороны, а 4ю еще не построили» (кто не читал, сможет найти в этом посте ссылки на другие интересные посты о технологиях социохакинга).

Но все в области ИИ сейчас развивается с немыслимой ранее скоростью. И за прошедшие полгода в социохакинге произошли две важных подвижки.

Свой августовский пост о 1ой из этих подвижек я назвал так: «Это изменит мир. Будучи пока не в состоянии симулировать общий интеллект индивида, ИИ-системы уже создают симулякры коллективного бессознательного социумов».

Вторая же подвижка произошла только что. Результаты исследования «Искусственное влияние? Сравнение убеждающей силы ИИ и человека в снижении уверенности в убеждениях» вносят важное уточнение в уже сложившиеся представления, что люди верят ИИ больше чем другим людям (см. мой пост «Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей»).

Новое исследование:
• С одной стороны, еще раз подтвердило, что это так - люди верят ИИ больше чем другим людям. ChatGPT смог уменьшить уверенность участников эксперимента в их ложных убеждениях (в среднем уверенность снизилась на 12.48%, и 29% участников даже изменили свои взгляды на противоположные, более точные)
• Однако, с другой стороны, исследование убедительно показало, что переубеждение происходит несмотря на то, что источником является ИИ, а не благодаря ему. Исследование показывает, что люди воспринимают ChatGPT примерно на том же уровне, что и обычного человека, но меньше доверяют ИИ, чем эксперту.
Иными словами, ChatGPT оказался не более убедительным, чем обычный респондент с противоположной точкой зрения. Эксперт по теме был значительно более убедительным.

Отсюда следует крайне важный для эффективности социохакинга вывод.
Максимальная манипулятивная мощь алгоритмического социохакинга достигается сочетанием:
✔️ способностей ИИ-чатботов к убеждению за счет структуры аргументации и объемов знаний;
✔️ и умения ИИ-чатботов убедительно имитировать экспертов, поскольку эксперты вызывают больше доверия у людей


Так что ждите появления в медиа тысяч новых «экспертов», способных убедить и переубедить нас в чем угодно.

#Социохакинг

Читать полностью…

Малоизвестное интересное

Открытие тысячелетия - создана универсальная модель человеческого познания.
И уж поверьте, - это важнее, чем выборы Трампа.

Вычислительная модель «Кентавр» способна точно (!) предсказывать и моделировать любое (!) человеческое поведение в любом (!) эксперименте из любой (!) области, который можно описать на естественном языке.
Это открытие сделано выдающимся коллективом из 15-ти ведущих мировых научных центров. И оно окажет прорывное влияние на когнитивные науки, бросая вызов существующей парадигме разработки вычислительных моделей человеческого разума.

Кратко это открытие можно описать так:
• если революционный прорыв ChatGPT показал человечеству, что ИИ-модели могут быть неотличимы от людей в любых действиях, основанных на использовании человеческих языков, -
• то революционный прорыв «Кентавра» показывает человечеству, что ИИ-модели могут быть неотличимы от людей по своему поведению в любых ситуациях и обстоятельствах, связанных с исследованием, планированием и научением.

Иными словами, ИИ-модели могут не только оперировать на наших языках неотличимо от нас, но и при этом вести себя, как неотличимые от нас разумные сущности.


Авторы исследования создали модель «Кентавр» путем дообучения открытой языкового модели Llama 3.1 70B на новом крупномасштабном наборе данных под названием Psych-101. Psych-101 – набор данных беспрецедентного масштаба. Он охватывая данные по каждому психологическому испытанию от более чем 60,000 участников, которые сделали более 10,000,000 актов выбора в 160 экспериментах.
«Кентавр» не только точнее моделирует поведение новых участников по сравнению с существующими когнитивными моделями, но и обобщает свои знания на новые контексты, модификации задач и совершенно новые области.
Более того, авторы обнаружили, что внутренние представления модели становятся более согласованными с человеческой нейронной активностью после дообучения модели.

Это открытие имеет реальные шансы стать универсальной моделью познания. Следующим шагом должно стать преобразование этой универсальной вычислительной модели в единую теорию человеческого познания.

#LLMvsHomo #Познание

Читать полностью…

Малоизвестное интересное

За 18 месяцев до конца света.
Обращение компании Anthropic к правительствам.

Это сигнал тревоги от одного из лидеров разработки самых мощных современных ИИ.
Компания Anthropic призвала правительства «срочно принять меры по политике ИИ в течение следующих 18 месяцев», поскольку «окно для упреждающего предотвращения рисков быстро закрывается».
Возможность реализации преимуществ ИИ и одновременного снижения ИИ-рисков, растает уже через 1.5 года, - пишут авторы обращения. А когда окно возможностей закроется – будет поздно пить боржоми. Мир окажется в худшем из возможных вариантов: прогресс будет тупо тормозиться рефлекторным регулированием, а риски при этом будут только расти.

Авторы обращения реалисты. И они знают, о чем говорят, гораздо лучше большинства своих потенциальных критиков.
• Они не пытаются давать прогнозы о сроках появления AGI.
• И не спекулируют на гипотезах о возможной злонамеренности продвинутого ИИ.

Вместо этого, специалисты Anthropic:
✔️ исходя из уже достигнутой скорости расширения и углубления возможностей своих ИИ-моделей,
✔️ и трезво оценивая, каких возможностей они (своими руками и своей головой) смогут достичь в новых ИИ-моделях за 18 мес (с учетом доступного им финансово и физически оборудования), –

приходят к такому выводу.
Этих возможностей может быть вполне достаточно, чтобы злодеи, фанатики или идиоты могли с помощью ИИ создавать реальные угрозы (химические, биологические или кибернетические) здоровью и жизни тысяч и миллионов людей. А способов превентивного предотвращения этого кошмара у правительств не будет.

Все аргументы и факты изложены в документе на 13 мин чтения The case for targeted regulation, о котором в Рунете пока ни слова.
#ИИриски

Читать полностью…

Малоизвестное интересное

Третий бастион чувств взят.
Открыт путь ко «второму Я» и «телепортации запахов».
«”Настоящий Метаверс“ появится лишь в 2030х после широкого развертывания 6G. В таком Метаверсе все аватары будут типа ”второе Я“, т.е. полное впечатление, что вы все это реально видите, слышите и чувствуете: чувствуете запахи, слушаете, что происходит вокруг - полное ощущение. При этом ваш аватар будет находиться не только в цифровой реальности, но и в физической реальности. Там будет работать сильно интеллектуальный дрон, оснащенный всеми системами камер и датчиков, способных вам передать все реальные ощущения, которые вы будете видеть, нюхать, чувствовать, находясь в своем собственном теле… Весь туризм изменится. У каждого свой ИИ-дрон, имитирующий индивидуальное ”второе Я“. Телепортируясь с вами в саванну, мы видим, слышим, чувствует – от аромата грязного носорога до чего угодно. Причем вы видите меня, я вижу вас, … и мы летим над саванной, видя и слыша ее под собой и через запахи ощущая ее реальность …»

Так я рассказывал почти 2 года назад о фантастических перспективах “туристической телепортации“ нашего ”второго Я“, что появится в 2030х с переходом технологий Метаверся на 6G.

Тогда же в 2022, объясняя детали в посте «Шестичувственный VR для Метаверса уже рядом», я писал, что задача полного погружения в 6SVR Метаверса требует задействовать: зрение, слух, вкус, обоняние, осязание ивестибулярный аппарат (чувство равновесия и положения в пространстве, ускорение). И что главным затыком с обонянием тогда было отсутствие у запахов некоего универсального конструктора (типа RGB для кодирования цвета), позволяющего кодировать любой запах сочетанием элементов конструктора.

Но все преодолимо. И как я тогда писал «через 10 лет мир запахов будет стандартной фичей Метаверса». Ибо гарнитуры уже учились источать не только простые запахи (типа запаха роз, клубники или шоколада), но и сложные комбинированные запахи (типа запаха пляжа, требующего сочетание запахов песка, морского бриза и солнцезащитного крема). Однако, 2 года назад все эти гарнитуры были далеки от совершенства, необходимого для «телепортации» чувств. И я заканчивал тот пост, что «в ближайшие годы предстоит решить 3 главные задачи».

И вот не через 3, а через 2 года проект компании Osmo, так и названный «Телепортация запахов», увенчался успехом.

«Мы сделали это!» - написали авторы в блоге компании. И как нынче становится все чаще, - ключевая роль в успехе принадлежит ИИ.

• ИИ дематериализует и оцифровывает комбинации молекул, воспринимаемых нами, как запах.
• Эти данные становятся координатами на Карте основных ароматов (сложная модель, которая отображает запахи в многомерном пространстве для более точного воссоздания) — новаторском инструменте на основе ИИ, который может предсказывать формулу того, как пахнет определённое сочетание молекул.
• Эта формула отправляется одному из роботов-синтезаторов запахов, который воспринимает её как рецепт и смешивает различные ароматы для воспроизведения нашего образца.

Скоро компания планирует открыть демо для общественности, чтобы люди могли лично испытать телепортацию запаха. Пользователя попросят выбрать цветок или фрукт из обширной коллекции, а затем дадут ему или ей возможность хорошенько запомнить этот запах, пока компания анализирует образец в своей лаборатории. За один сеанс компания воссоздаст выбранный аромат и распылит его обратно к пользователю. А затем наступит момент истины: отзыв пользователя, насколько точным было воспроизведение запаха.

#Metaverse #Запах

Читать полностью…

Малоизвестное интересное

Не время быть идиотами, ИИ может победить людей.
В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.

Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.

Модель Крабтри – лишь эвристическая гипотеза. Ибо проверить ее адекватность невозможно из-за отсутствия возможности провести эксперимент.

Но как иначе тогда, черт побери, объяснять такие вещи? (см. рисунок)

Вверху слева: оценки p(doom) – вероятности того, что развитие ИИ приведет человечество к гибели, по мнению ведущих специалистов ИИ
Оценка Дарио Амадеи (СЕО Anthropic), недавно провозгласившего, что ИИ станет для человечества «машиной благодатной милости»: 10-25%
Вверху справа: Метафорическая иллюстрация того, что такая оценка Амадеи близка к вероятности «русской рулетки», в которую человечество играет, выпуская в люди новые версии после GPT-4.

Внизу справа: оценки аналитиков Ситигруп перспектив развития ИИ: AGI в 2029, ASI с 2031.
Внизу слева их же оценки того, какие скилсы вам нужно развивать, чтобы ни AGI ни ASI не лишили вас работы: коммуникации, критическое мышление, эмоциональный интеллект, эмпатию …


Как тут не вспомнить гипотезу Крабтри, что планета превращается в мир идиотов.
И всем рекомендую помнить, что проф. Деан (один из самых известных в мире нейробиологов) уже 2 года призывает человечество задуматься: «Не время быть идиотами, ИИ может победить людей».
#ИИ #AGI #LLMvsHomo

Читать полностью…

Малоизвестное интересное

Первый в мире «жидкий ИИ».
Похож на ChatGPT, но прозрачен, энергоэффективен и почти в 500 раз дешевле.

Вчера самый популярный ИИ-стартап Бостона Liquid AI провел большое публичное мероприятие в MIT, чтобы продемонстрировать свои последние разработки, материализовавшие их «уникальный и революционный подход к ИИ» (видео рассказ о мероприятии).

«Мы создаем самые эффективные и самые мощные системы ИИ, которые вы еще не видели» и «Liquid AI делает возможным то, что до сих пор было невозможным» - объявил соучредитель Liquid AI Рамин Хасини, открывший мероприятие вместе с губернатором Маурой Хили.

Бостон Глоб дала своему репортажу об этом событии название «Маленькие черви, большие мечты: как мозг беспозвоночного вдохновил Бостон на самую большую добавку к ИИ» с подзаголовками «Liquid AI стремится стать ключевым событием, «подобным приезду Beatles в Америку» и «Модель ИИ LiquidAI отличается от модели LLM OpenAI».

Последнее – читая правда. Ибо 3 новых модели LiquidAI – это модели генеративного ИИ принципиально нового класса LFM (Liquid Foundation Models - Жидкие Базовые Модели), демонстрирующие топовую производительность при любом масштабе, и при занимающие ощутимо меньший объем памяти, обеспечивая более эффективные вывод.

Кроме того, LFM:
• снижает зависимость от облачных сервисов (что снижает затраты и потребление энергии), в результате чего модель может работать на смартфоне без Интернета;
• обеспечивает большую объяснимость и прозрачность, чем архитектуры на основе трансформаторов, потому что поведение моделей LFM можно перемотать назад, чтобы увидеть, как они произвели результат;
• разработка 3х моделей потребовала всего лишь $38 млн интвестиций (сравните с $17.9 млрд у OpenAI)

«Вдохновленная структурой мозга червя C. elegans, архитекрута класса LFM не похожа ни на что из того, что предлагают OpenAI, Google и их конкуренты, — однако она может предложить те же самые революционные приложения, используя при этом много меньше электричества» - сказал Рамин Хасини.

Червь C. elegans является одним из немногих существ, чья нервная система была полностью картирована, и он способен к удивительно сложному поведению, несмотря на то, что у него всего 302 нейрона. «Когда-то это был просто научный проект, но эта технология полностью коммерциализирована и полностью готова приносить пользу предприятиям», —объявил Хасани.

Кардинальное отличие в следующем.
• Внутри обычной нейронной сети свойства каждого моделируемого нейрона определяются статическим значением («весом»), который влияет на порог его возбуждения.
• В жидкостной нейронной сети поведение каждого нейрона управляется уравнением, которое предсказывает его поведение с течением времени. Сама же сеть, в ходе своего функционирования, решает каскад связанных уравнений. Конструкция делает сеть более эффективной и гибкой, позволяя ей обучаться даже после обучения, в отличие от обычной нейронной сети.

Все это звучит, как сказка. Но попробуйте сами поиграть с «жидким ИИ-чатботом». Мне очень понравилось.

PS И ведь предупреждал же еще в 2018, что «Человечество движется к разжижению мозга. Это возможный переход на альтернативный вариант интеллекта».
# LFM

Читать полностью…

Малоизвестное интересное

Пузырь AI2 лопнет, актуализируются квантовые угрозы Шрёдингера и обратной кражи личности.
Опубликован прогноз BeyondTrust по кибербезопасности на 2025 год и далее.

Все 8 прогнозов, имхо, имеют неплохие шансы материализоваться (как это и случилось с прогнозами BeyondTrust на 2024).
Три из новых прогнозов на 2025 год и далее по важности заслуживают особого внимания.


ИИ² лопнет как пузырь, заодно и развенчивая преувеличенную ИИ-угрозу
Искусственная инфляция (ИИ) ожиданий Искусственного Интеллекта (ИИ) — или ИИ² — уже достигла своего пика в 2024 году. Наблюдайте, как этот пузырь неумолимо лопается во многих сферах на протяжении 2025 года.
Хотя некоторые обещания ИИ сбылись, и технологии (такие как ChatGPT и его плагины) продолжают впечатлять своими возможностями, технологии на базе ИИ в значительной степени не оправдали колоссальных ожиданий.
Отдельные рынки, инструменты и технологии действительно получают пользу от ИИ, но во многих кругах термины "с поддержкой ИИ" или "управляемый ИИ" используются чрезмерно и необоснованно. Это подразумевает, что эти термины будут приобретать все более негативные коннотации, что может фактически навредить маркетингу продукта или возможностей, с которыми они связаны.
В 2025 году мы ожидаем, что индустрия умерит обещания, инвестиции и ажиотаж вокруг новых возможностей ИИ и сосредоточится на том, что реально, а что является маркетинговым шумом. Мы увидим, как узконаправленный ИИ (не AGI – этот, по самым оптимистичным прогнозам, появится через десятилетия) закрепится в промышленном использовании как инструмент для базовой безопасности и рабочих процессов ИИ. Примеры могут включать автоматизацию создания продуктов, оптимизацию цепочек поставок и снижение сложности и требуемого уровня квалификации для выполнения определенных задач, основанных на лучших практиках безопасности.
Организации столкнутся с квантовыми вычислительными угрозами Шрёдингера
Подобно парадоксу кота Шрёдингера, угрозы квантовых вычислений в 2025 году будут одновременно существовать в двух состояниях. Вероятно, возможности квантовых вычислений будут служить инструментом дешифрования, делая устаревшими многие проверенные и надёжные средства защиты. Крупные организации будут стремиться подготовиться к этому упадку стандартов шифрования в пост-квантовом мире, признавая при этом, что угрозы пока реально не существуют. Это будет противостояние теории и реальности.
После выпуска пост-квантовых стандартов шифрования NIST многие крупные организации — особенно в сфере финансовых услуг — начнут длительный переход к принятию новых стандартов. Хотя полная интеграция новых алгоритмов, вероятно, займет много лет, важно начать этот путь сейчас, прежде чем квантовые угрозы станут общераспространенными (возможно, к концу десятилетия).
Войны клонов: Обратная кража личности будет массово порождать цифровых двойников
Ожидается рост обратной кражи личности, когда все данные утечек, накопленные за прошлые годы, неправомерно объединяются с дополнительными данными и предположениями о том, кто вы на самом деле, создавая поддельные версии вашей цифровой личности.
Почти все знакомы с концепцией кражи личности. Целые бизнесы построены на обнаружении угроз личности и защите сервисов и финансов. Однако обратная кража личности — относительно новая концепция. Она происходит, когда ваша личность ложно связывается с другой личностью, которая не является вашей.
Обратная кража личности может произойти, когда кто-то другой использует ваш email-адрес или номер телефона (по ошибке или намеренно) для регистрации где-либо, в результате чего вся их личная информация отправляется вам. В более продвинутой форме обратная кража личности может включать электронную и публичную привязку псевдонима — или другой личности — к вашей собственной без вашего ведома, для каких-то злонамеренных целей.

Подробней здесь
#Кибербезопасность

Читать полностью…

Малоизвестное интересное

Нежить и нелюди уже среди нас… как и было сказано.
Два класса химер совершенствуются, третий - появится лет через 10.

Это обсуждение на троих (Сергей Цыпцын, Сергей Сухов и я) в Дискуссионном клубе “Ноосферы” продолжает начатую в моем выступлении 2021 года тему «Мир химер».
Три года назад я так классифицировал и прогнозировал развитие этого «мира химер».
«Биохимера» (гибрид тела и чужих органов) появятся через 5-10 лет
«Инфохимера» (гибрид мозга и чужого разума) уже среди нас
«Материализованный дигитант» (гибрид души и чужих чувств появится через 15-20 лет

Спустя 3 года первые 2 прогноза подтвердились, а 3й на пути к подтверждению.
«Биохимеры» людей уже на подходе.
Прогресс здесь очевиден: от гибридных эмбрионов к гибридным существам:

2021 – получены химерные эмбрионы яванского макака, у которых часть клеток были человеческими [1]
2022 – созданы мыши с химерным мозгом [2]
2024 – созданы мыши с полноценной человеческой иммунной системой [3]
«Инфохимеры» уже не просто среди нас, а их уже сотни миллионов. Это “Альфа-инфорги” – первые цифроврожденные: [4]
- с иным образом жизни и поведением,
- с новыми, отличными от сапиенсов, адаптационными способностями и когнитивными гаджетами, оптимальными для жизни в цифровой среде,
- возможно, даже с недоступными для сапиенсов способами восприятия цифровой реальности, её познания и взаимодействия с ней
• До появления «Материализованных дигитантов» остается лет 10. Но уже появляются совсем неожиданный химеры, типа Литбесов - живых мертвецов [5]

Так что вопрос «Как преодолеть моральный антропоцентризм по отношению к нелюдям?» уже в повестке. Ибо уже несомненно, что совсем скоро людям предстоит жить в одном мире с интеллектуальными сущностями, не являющимися людьми (если хотите, нелюдями): 3 класса химер, воплощенный ИИ, а еще и продукты биоинженерии живых интеллектуальных машин [6].

Помимо перечисленных выше ссылок, рекомендую:
• Канал Сергея Цыпцына “Метаверсище и ИИще”
• Канал Сергея Сухова StoicStrategy

#Химеры

Читать полностью…

Малоизвестное интересное

Интеллект из хаоса: как сложные системы рождают разум.
Нейросети могут научиться думать и без человеческого опыта.

Мы до сих пор не знаем, как рождается интеллект - любой интеллект:
• от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76 млрд нейронов.
С появлением генеративного интеллекта машин, этот вопрос не только не прояснился, а лишь еще больше запутался.
Теперь мы не знаем, как рождается
✔️ не только, естественный (биологический) интеллект,
✔️ но и искусственный (машинный) интеллект тоже.

Ибо единственное, что мы до сих пор знали про рождение интеллекта у моделей генИИ, - что он каким-то загадочным образом появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово). Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных.

Так что ж получается – интеллект рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?

Не совсем так.

Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - интеллект возникает на грани хаоса.

Заинтересованный читатель может продолжить чтение о том,
• что и как было сделано авторами работы «Интеллект на грани хаоса»,
• каковы 2 главных вывода этого исследования,
• какая интригующая эвристическая гипотеза напрашивается из этой работы,
• что думают мои персональные ИИ-консультанты по поводу моей гипотезы и прочих высказанных мною в тексте поста спекулятивных предположений, выходящих за границы современной науки, -
на платформах Boosty, Patreon и VK (в разделе для подписчиков моих лонгридов)

https://boosty.to/theworldisnoteasy/posts/7139c66c-ff70-4a2b-a5cc-e8ef870041af
https://www.patreon.com/posts/intellekt-iz-kak-113793549
https://vk.com/@-226218451-intellekt-iz-haosa-kak-slozhnye-sistemy-rozhdaut-razum

#Интеллект #Хаос

Читать полностью…

Малоизвестное интересное

Наняли бы вы на работу Океан Соляриса?
Три капкана на пути внедрения генеративного ИИ.

Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.

1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.

2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.

3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.

Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)

А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.

Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).

#ИнойИнтеллект #LLMvsHomo

* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.


1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.

Счастливо!

Читать полностью…

Малоизвестное интересное

Жить без генеративного ИИ скоро станет, как жить без электричества.
Но в отличии от электричества, половина применений ИИ будет для обмана и причинения вреда.

Вывод в заголовке следует из результатов только опубликованного первого репрезентативного исследования в США по внедрению генеративного ИИ (ГенИИ) на работе и дома [1].
Скорость и интенсивность внедрения ГенИИ колоссальны. Такого не было в истории человечества никогда: внедрение электричества, телефонов, персоналок, смартфонов, Интернета, - все это не идет ни в какое сравнение:
• в августе 2024 года 39% населения США в возрасте от 18 до 64 лет использовали ГенИИ;
• Более 24% работников использовали его по крайней мере раз в неделю, предшествовавшую опросу,
• и почти каждый девятый использовал его каждый рабочий день.
Подробности см. на приложенных к посту рис. 2-6 из нового отчета.

Вывод в подзаголовке изрядно портит впечатления от небывалого в истории технологического триумфа. Данный вывод следует из только что вышедшей книги двух ученых-компьютерщиков Принстонского университета проф. Арвинда Нараянан и доцента Сайаша Капур «Искусственный интеллект: правда и мифы. Что он может, что не может и как распознать разницу» [2].
Книга уникальна по глубине анализа и широте охвата примеров. Три главных вывода книги (в моем представлении):
1. Главный источник колоссальной путаницы и непоняток с внедрением этих технологий – не в отсутствии внятного общепринятого определения ИИ, а в тотальном непонимании большинства пишущих об этих технологиях и пытающихся их внедрить руководителей принципиальной разницы трех типов ИИ: предиктивный, генеративный и модерационный.
2. Самое важное и сложное на современном этапе развертывания технологий ИИ – разобраться с правдой и мифами в этой области и понять, что ИИ (конкретный ИИ одного из 3х возможных типов) может, что он не может и как распознать разницу.
3. До тех пор, пока задача из п.2 не будет решена, значительная часть внедрений ИИ будет направлена на обман и мошенничество, а также нанесения самого разнообразного вреда (морального, финансового, физического, репутационного …) людям, компаниям и социумам.

PS Кто не читал, рекомендую также историю о том, как проф. Нараянан, будучи не просто инфоргом, а можно сказать, представителем «высшей касты среди инфоргов», начал в прошлом году эксперимент над своей 3-летней дочкой [3]. Цель эксперимента: фиксировать, насколько сильно дети, вырастающие в компании развитых ИИ-агентов, будут отличаться от детей 20го века (гипотеза здесь такова, что степень отличий будет, примерно, как у отличий 10-летнего московского ребенка поколения Z и ребенка-маугли, выросшего среди волков).

1 https://www.pw.hks.harvard.edu/post/the-rapid-adoption-of-generative-ai
2 https://www.aisnakeoil.com/
3 /channel/theworldisnoteasy/1709
#ГенеративныйИИ #БудущееHomo #Инфорги

Читать полностью…
Subscribe to a channel