Когда мир меняется слишком быстро
Диалог на восьмом круглом столе о теоретических основаниях педагогики в МПГУ:
... - Но с двенадцатого года это уже неверно!
- с 1812 или 1912?
- с 2012!
Коллеги, продолжаем делиться с вами видеозаписями с конференции Future Foundation Technology Ethics.
Выступление Кирилла Мартынова "Универсальная этическая машина: мораль после big data".
https://youtu.be/J9bfcn1vXig
А вот еще от Дмитрия Пескова, немного охлаждает пыл:
Если вы верите в сингулярность, вы должны выйти из зала, продать все активы, купить билет на далекий остров в районе Микронезии и завести себе там натуральное хозяйство. Никакой другой модели поведения, которая даст вам возможность выжить в ситуации сингулярности, не существует с 1956 года.
Если вы не верите в сингулярность, а верите в регулярность. Верите, что разумной фигурой является синусоида, то тогда можно продолжать разговаривать. На сингулярность мы ответим регулярностью. В этой логике в блидайшие годы ИИ не возникнет.
Страшно:
Сергей Васильев, советник генерального директора Фонда Перспективных Исследований: "Как дать искусственному интеллекту национальную идентичность и принадлежность?"
- Человеческие интеллект размазан по 7 миллиардам людей. Из-за большого количества профессий разная онтология. Но мы находим общий язык благодаря социальным инстинктам.
- Любая катастрофа будет всемирной катастрофой из-за глобальности мира. Потеря управления ИИ, например.
- Чтобы добиться распознавания 99% сколько картинок кошечек нужно ввести? Хватило всего лишь 10 миллионов.
- Что делать с сокращением рабочих мест роботяг, которые не смогут работать вместе с роботами? Сделаем усилитель интеллекта - чтобы за день прожить десяток жизней.
- сейчас можно и нужно перейти к конструированию общего искусственного интеллекта
- Сильный ИИ появится в течение 3-5 лет (прогноз от Виталия Львовича Дунина-Барковского).
- Примеры подобных технологических прорывов: тоннельны микроскоп, графен, высокотемпературная сверхпроводимость.
- до сих пор общий ИИ не сделан, потому что для тех кто финансирует исследования он не является самоценным, они задают вопросы "А что он может сделать?", "А как он нам поможет?".
- Если вы возьмете много нейронов, чтобы было много входов и один выход, так чтобы связи между ними могли меняться так, чтобы не было ошибок, то на конечном отрезке времени такая система станет работать без ошибок. При этом не важен тип этих нейронов. И вникать в работу этих нейронов бессмысленно.
- мы не можем переделать людей - трудно соперничать с миллионами лет эволюции. Задача дизайнеров интерфейсов и инженеров - делать желания людей реализуемыми технически.
Кто хочет помочь развитию русскоязычного искусственного интеллекта - сегодня можно побыть судьей в Тесте Тьюринга. Пока боты не очень сильные, но во-первых, сам процесс интересен, а во-вторых, коммуницируя даже с плохими чат-ботами вы помогаете им стать лучше, обучаясь: @Turingtest_bot
Ниже пример моей переписки
Интересная панель с Евгением Кузнецовым и Альбертом Ефимовым "Нужны ли мы нам" на конференции по искусственному интеллекту в Сколково:
Евгений Кузнецов за экзистенциальный подход, а Альберт Ефимов говорит, что ему ближе прикладной.
ЕК: И искусственный интеллект, и синтетическая биология - следствие желания побыть богом. Во многом согласен.
ЕК: Избрание Трампа - следствие страха перед быстрым развитием новых технологий.
АЕ: Первое, что люди делают, покупаю машину с функцией авптопилота - отклачают его. Неожиданно, если так, не знал такой статистики.
ЕК: Люди, создающие искусственный интеллект, создают антропоморфный интеллект. И первая задача - реализовать эмоциональный интеллект, иначе невозможно достичь антропоморфности. Второй вариант - другой интеллект. Не челокоподобный сверхразум, а иной.
ЕК: В 2018 году граждане ЕС получат законодательное право знать, чем именно обоснованно решение в отношении их, принятое ИИ (медицинские, экономические и другие). В продолжении вопроса о синтезе разума, это - вопрос о синтезе права. Виктор Вахштайн говорил, что первые суды над действиями машины были еще в Римской Империи. Насколько быстро машины станут субъектами права? Скорость этого процесса пропорциональна количеству смертей. Это горячая дискуссия где-то 2025 года.
ЕК: Техносфера выравнивается с ноосферой в своей мощи, нам придется эволюционировать с такой логикой и скоростью, чтобы балансировать с техноэволюцией. Редактирование генома делается на основе машинного обучения bigdata. В будущем машина подскажет, какие гены стоит запрограммировать ребенку. Так машины будут влиять на эволюцию человека.
АЕ: Не замещение человека, а расширение возможностей с помощью ИИ. Постепенный переход на новый технологический уровень.
ЕК: Попытка создать ИИ - желание создать машину, самостоятельно производящее смыслы. Апогей идеологии машинной цивилизации. Основные сутевые изменения делаются людьми, которые хотят покуситься на что-то святое. В России с этим сложная ситуация. а для классической европейской цивилизации - это попытка проверить, насколько мы приблизились к богу в наших возможностях. Нельзя замахнуться на что-то великое, если не держать великое в голове. Когда Перельман говорит, что он управляет Вселенной, многие думают, что он чокнулся. Но нет, он не чокнулся, а правильно мотивирован) (чуть перефразировал). Итого, создание ИИ - проверка, насколько мы есть мыслящее существо, Если рациональное мышление воспроизводимо рукотворно, значит человек - это что-то большее. (с этим не очень согласен, во всяком случае, этот логический переход не самоочевиден).
ЕК: Важен поиск того, что является человеческим, а что можно отдать машине. Например, водить машину - для большинства людей необходимость, а не удовольствие, поэтому беспилотным машинам быть.
АЕ: Три измерения, как человек отличается от машины: манипуляция объектами, споособность к социальному взаимодейсвтию и креативность. Поэтому профессия садовника никогда не умрет - потому удовлетворяет двум из трех критериев.
ЕК: Какие проблемы человечества ИИ может решить:
С развитием общества увеличивается объем принятия решений в расчета на инливидуума. Люди хотят отдать машине рутинные дейсвия, а себе оставить максимум свободы.
Возможности познания. Машины могут в этом помочь - не обладать всеми знаниями (с нынешним количеством знаний это невозможно), а быстро получить к ним доступ.
Итого, нам хочется больше свободы, осознанности и возможности реализовывать функцию познания. Больше знаний, больше кругозор, больше идей для творчества.
АЕ: какие проблемы человечества ИИ может решить:
19 век - время создания ресурсов
20 век - время контроля. Как научиться контролировать все, что насоздавали. А также время цифровой информации.
21 век - что делать с собранной в 19 и 20 веке информацией? В мире нет проблемы создания еды, ресурсов. Есть проблема с распределением этого. ИИ должен помочь распределить ресурсы.
ЕК: если израильские ученые создали ИИ, обыгрывающий человека в Mortal Kombat, значит это разработку уже купили израильские военные.
Почему многие люди так удивились победе Трампа?
Глобальная связность и социальные сети дают нам возможность окружить себя людьми, которые нам интересны и чья позиция нам приятна. Это называется "информационный пузырь" и действительно это феномен нового времени, так как раньше, до того, как мы могли управлять нашим информационным полем, нам гораздо больше приходилось общаться с людьми другой позиции, другого социального класса. Сейчас значимую часть нашей коммуникации заняли социальные сети, где мы находимся в этом "информационном пузыре". Ситуацию усиливают алгоритмы фейсбука - он показывает нам больше постов тех людей и того содержания, которые мы лайкаем. Получается система с положительно обратной связью - в пределе такой "пузырь" должен сужаться, но он держится в пределах какого-то радиуса как нашей любознательностью (все же она осталась), так и рандомайзером, который в некоторой степени все же присутствует в выдаче постов.
Кстати, продолжая известное обсуждение что Google может влиять на исход выборов - по идее, Facebook, меняя вот этот параметр рандомайзера выдачи постов - ширины коридора (дельта радиуса нашего информационного пузыря) может тоже влиять на исход выборов, так как может сложиться ситуация, что для одной из сторон политической гонки выгодно, чтобы избиратели оказались в ситуации негодования от того что им стало попадаться много постов неприятного содержания.
http://nymag.com/scienceofus/2016/11/how-facebook-and-the-filter-bubble-pushed-trump-to-victory.html
Видео нашей панели "Творчество машин: стоит ли людям опасаться конкуренции" на Форум "Открытые инновации"
Участники дискуссии:
- Алексей Турчин — член Ассоциации футурологов, сотрудник Фонда «Наука за продление жиз, искусствовед
- Анна Абалихина — хореограф, куратор
- Ростан Тавасиев — художник
- Елизавета Плавинская — искусствовед, художник
- Иван Нефедкин — креативный директор медиа дизайн студии Radugadesign.
Дискуссия получилась жаркой, интересной. Продолжим работу с темой.
Вот краткий контекст разговора:
Новости о радикальных успехах нейронных сетей приходят в среднем раз в две недели. И эти новости рушат нашу картину мира: "машина научилась копировать стиль художников", "машина научилась писать музыку", "машина научилась копировать стиль поэта", "машина дошла до финала литературного конкурса" и так далее.
У меня есть гипотеза, что сам факт возможности потери монополии человеческого разума на творчество заставляет чувствовать себя неуютно даже обычных людей. Процесс, конечно, некомфортный, это есть тот самый "шок будущего". И это актуализирует вопросы этического принятия новых технологий, насколько комфортно людям жить в мире будущего. Как справится с этим онтологическим разрывом.
А вот вопросы, которые мы обсуждали:
- Нужно ли нам переосмыслить понятия "искусства", "творчества", "гениальности"? Где граница дилетант-профессионал? Если машины - новые подражатели, то в чем истинная ценность оригинала, если подражание невозможно отличить?
- Где здесь понятие "сознание" и является ли его наличие обязательным условием творчества?
- Если у человеческого вида осталась монополия на творчество, то что это за творчество? Что мы отдадим машинам? Что станет делать человек-творец, когда искусственный интеллект сможет выполнять творческие задачи? Чем займутся в этой ситуации люди?
- Многие специалисты по искусственному интеллекту и биотехнологиям утверждают, что будущее человечества не в конкуренции с машинами, а в соединении с ними. Что будущее нашего вида - это "цифровые кентавры" - киборги с компьютером, постоянно подключенному к мозгу и усиливающему нас. Если предположить, что такое будущее настанет и что творцы тоже будут такими киборгами - то как будет выглядеть искусство, которое творится соединением человека и ИИ?
- Станет ли искусственный интеллект, если он действительно будет серьезно превосходить человека по мощности, заниматься творчеством? Зачем ему творчество?
- Если машины могут творить для людей, могут ли они и воспринимать творчество? Придем ли мы к творчеству машин для машин?
https://youtu.be/D5_GXFPehws
Посмотрите на это кинематографическое качество. Это рендеринг в реальном времени. Это значит, что это не просто красивое кино (к спецэффектам такого уровня реалистичности все уже привыкли), а вы можете взаимодействовать с объектами в этом мире, например, манипуляторами в виртуальной реальности.
Это значит, что грань между кино, игрой, обучением, и вообще жизнью в виртуальной реальности уже стирается. Скоро, скоро мы увидим миры, которые будут творится в вместе авторами, пользователями (и часть тех и другиз будут нейронными сетками).
Только представьте мир, который вы не можете отличить от реального. Конечно, шлем vr немного будет давить на уши и напоминать о бренности существования, но через 5 минут уже привыкаешь и забываешь. И то шлем нужен будет только до момента пока не появятся контактные линзы с наложением (или вот как Magic Leap уже делает что-то ("самый секретный стартап"), проецирующее на сетчатку), а потом и вообще в зрительный нерв.
Будоражит.
Ложка дегтя - стоит отметить, что роботов проще сделать реалистичными, чем людей. У нас слишком плавные переходы форм - пока еще заметна разница. Но это вопрос очень ближайшего будущего, кстати, и в прорисовке людей может быть нейронные сети пригодятся.
https://youtu.be/GXI0l3yqBrA
Наконец-то! Фотографии с конференции Future Foundation Technology Ethics
1 октября 2016
https://www.facebook.com/futurefo/photos/?tab=album&album_id=320224585028747
Про несбывшуюся власть компьютера в СССР, кризис сложности и социальные барьеры технологий.
В СССР был проект интернета, но на самом деле, идея была гораздо глобальнее. Интернет был бы лишь средством ее осуществелния: передача всего управления плановой экономикой компьютеру. Сеть должна была состоять из двух ярусов. На первом - объединить едиными каналами связи около 100 мощных вычислительных центров, расположенных в крупных промышленных городах и экономических районах. К этим мощным центрам подсоединить около 20 тысяч мелких из второго яруса. Главная цель системы - вести постоянный учет и контроль за любой точкой в гигантской экономике страны.
Разумеется, не разрешили. Формально из за цены - дороже атомной и космической программ вместе взятых. На самом деле, из-за того, что экономика станет слишком прозрачной. Конец отпуску продукции "с черного хода" и другим известным в СССР явлениям. Но даже не только поэтому. Для налаживания работы пришлось бы переучить столько специалистов и так сильно поменять привычный уклад жизни и мышления (в проекте про мышление ничего не было, но, очевидно, это уже другое общество было бы), что в результате это был бы уже не СССР, который был нужен тем, кто принимал решение.
Интересно так же про предпосылки автора этого проекта Виктора Глушкова: "Человечество пережило в своей истории два информационных барьера, кризиса управления. Первый возник при разложении общинно-родового хозяйства и был преодолен с возникновением товарно-денежных отношений и иерархической системы управления, когда старший начальник управляет младшими, а те уже исполнителями. Второй барьер вырос в ХХ веке, когда уже не помогали ни иерархия в управлении, ни товарно-денежные отношения. Причина нового кризиса - невозможность даже множеству людей охватить все проблемы управления огромным хозяйством. Поэтому теперь даже самый умный и честный человек просто физически не сможет эффективно управлять экономикой."
Глушков получил несколько других государственных наград за другие проекты, в том числе первого советского персонального компьютера "МИР-1", но главное дело жизни, которым он видел преодоление кризиса сложности, так и не было реализовано. Виктор Михайлович ушел из жизни, не дожив до 60 лет.
Интересно пофантазировать, в каком мире мы бы жили сейчас, если бы этот проект был реализован. Именно "в каком мире", а не "в какой стране", потому что переход СССР под управление компьютером изменило бы все направление технического прогресса. Я не специалист ни в истории, ни в политологии, поэтому лишь предположу явную развилку: либо дегуманизация власти привела бы к снижению авторитета (хотя какой там авторитет у советской власти в этот период) и так же развалу СССР, либо та же самая дегуманизация наоборот ослабила бы социальный конфликт, а прозрачность экономики бы дала бы ей новый толчок.
https://rg.ru/2016/11/01/v-ssha-vyshla-kniga-o-dostizheniiah-sovetskih-kibernetikov.html
Глобальная прозрачность, экономика "дружественности" (см Черное Зеркало новый сезон). Или все же нет?
Британская страховая компания Admiral использовала ИИ для анализа постов своих клиентов в соцсетях и оценивала их по манере выражаться. Благонадежные водители могли рассчитывать на более выгодную страховку. Однако практически сразу после запуска инициативы Facebook закрыла компании доступ к пользовательским данным.
https://hightech.fm/2016/11/03/facebook_admiral
Технологии и ритуалы. Не то чтобы эта новость была про этику технологий, понятно, что технологии тут как бы сбоку. Скорее просто про этику. И понятно, что это пиар, репутация, бизнес. Но что-то есть в этом сочетании ритуалов и современных технологических игроков.
https://hi-tech.mail.ru/news/samsing-galaxy-note-7/
"Война за воздух" выходит на новый уровень. Бедные дроны. Их и орлами сбивают (Нидерланды), и другими дронами с сетями (Япония) яки рыбку, и вот теперь это. Опасные создания, в общем.
Специалисты Объединенной приборостроительной корпорации (ОПК), входящей в состав «Ростеха», создали оружие, способное уничтожать стаи ударных мини-дронов. Оно не уничтожает дроны физически, не создает для них помехи, а гарантированно выводит из строя радиоэлектронные бортовые системы
https://lenta.ru/news/2016/10/29/dron/
Это очень хороший проект
https://project1917.ru/
Заходя на сайт, вы каждый день узнаете о том, что произошло ровно сто лет назад с героями и всей страной. Что занимало мысли людей, что случилось с каждым из них в этот насыщенный событиями год. Вы не можете заглянуть в будущее, можете лишь следить за событиями в реальном времени.
И сделано это в формате фейсбука, и я считаю это принципиальным моментом. Выступления в Думе и манифесты - в виде постов. Реакция на них других людей - в виде комментариев и лайков. Кто с кем дружил, как общался - все это можно узнать.
Проект многие критикуют в стиле "Опошлили историю, свели все к соцсеточкам". А я вот категорически не согласен с этой критикой. Если в наше время есть способ коммуникации настолько удобный и привычный, глупо было бы его не использовать. Именно с помощью него можно достичь такую атмосферу погружения.
Но самое важное - это дает возможность воспринимать исторических деятелей не как фотографии/портреты из учебника с подписью и датами рождения-смерти, а как равных себе. А этот эффект работает в обе стороны: не только они становятся нам ближе и понятнее, происходит такая дедегуманизация (два раза "де" - не опечатка) из портретов - в цифровых аватаров (что уже большой прогресс), но и в другую сторону: мы сами чувствуем себя более равными им. Ведь большая проблема для нас, "обычных людей", как мне кажется - дерзнуть предположить, что мы можем что-то изменить. Исторические люди, которые портреты в учебнике, они недосягаемы, непонятно как они действовали, как жили, с кем общались - мы знаем только результаты их деятельности. А здесь, в этой соцсеточке - они равны нам. А раз смогли они, сможем и мы. Вот этот эффект мне кажется неочевидным, но важным.
Ну и, конечно, не удержусь - скажу о технологиях и будущем. В этом я вижу начало пути к созданию более полноценных цифровых аватаров, обученных нейронных сетках, например, на исторических личностях. Они смогут действовать в VR-мирах. Только представим, какие возможности для обучения.
Но это только этап, а главное - дальше. Представим себе парадигму нашего взаимодействия с историей, когда мы сможем выбрать себе VR-сервер с желаемым временем и там все будет "по-настоящему", с полным погружением. Да, как 4 серии 3 сезона Черного Зеркала. Это ли не практически путешествия во времени?
И в другую сторону - мое предположение в том, что участвуя в цифровом бессмертии живших когда-то мы начнем иначе относится к настоящему. Это заставляет задуматься, какое наследние мы оставляем после себя, как бы это пафосно ни звучало.
Ну и несоклько мыслей по итогам конфернеции:
Что интересно, даже панель по технологическим барьерам вылилась в обсуждение этических барьеров и юридических вопросов робототехники. Ну что ж, мне это нравится)
Дискуссионной панели "Искусственный интеллект и национальная безопасность" я очень боялся, но патриотическую риторику особого русского пути показал только один участник Сергей Васильев (советник генерального директора Фонда Перспективных Исследований), остальные были в рамках глобального подхода.
В докладе Виталия Львовича Дунина-Барковского было несколько печальных примеров, из-за которых потенциал российской школы искусственного интеллекта реализован не так хорошо, как мог бы. Нет, ничего особенного, все стандартно, но все равно печально, когда собрано в одном докладе: после такой-то конференции не дали денег, тот-то специалист не получил работу на кафедре из-за пятого пункта и уехал в Израиль. иИ так далее.
Искусственный интеллект, надеюсь, будет этичнее человеческого: к сожалению, как и на моей конференции, и на дискуссионных панелях, которые я вел и в которых участвовал, так и здесь: более половины "вопросов" из зала являются не вопросами, а высказываниями своего мнения. Это очень неэкологичное поведения, во всяком случае, мне так кажется. Я часто в таких случаях прерываю выступающего и отбираю микрофон (возможно, это тоже неэкологично), за что меня называют очень жестоким ведущим. Тут модераторы вежливее)
Дмитрий Песков, АСИ:
Сочетание двух трендов - ИИ и биотеха - в ближайшие 20 лет поставит эксперимент, который покажет - есть ли интеллект у человечества? Потому что никаких рациональных причин для самосохранении человечества нет. Прошлый такой эксперимент - ядерное оружие и его можно считать наполовину провалившимся, но тогда нужно было договориться между несколькими стейкхолдерами. Но как быть, когда ИИ и CRISPR доступен каждому представителю среднего класса на кухне? На этику надежд нет. При этом мы видим, как международные организации отрицают ценность человеческой жизни. Поэтому нужно искать другие механизмы защиты. Возможно, это должно быть что-то встроенное в саму технологию, по типу законов робототехники. Но, возможно, мы уже опоздали.
Дмитрий Песков, АСИ:
Темой круглых столов скоро будет не "Искусственный интеллект и национальная безопасность", а "есть ли в искусственном интеллекте что-то кроме национальной безопасности". Градус сейчас такой же, как в середине 50-х годов, как будто уже написана страница "Правды" "Кибернетика - лженаука", но еще не подписана к печати. То есть сейчас идет расстановка приоритетов. И разница в масштабе действий - нужных и реальных - тысячи раз. На сколько человек недооценивает ИИ как аспект национальной безопасности. Прогноз, в ближайшие годы тема вырастет в десятки раз, будут созданы специализированные институты для решения этой задачи, к сожалению произойдет некоторое закрепощение коллективов, чем проиграем гонку с западом, так как они занимаются открытыми конкурсами и работой с сообществом.
А в целом - идем к 2037 году, когда искусственный интеллект "Иосиф Сталин" будет проводить цифровые репрессии против искусственного интеллекта "Лев Троцкий".
Еще отдельные высказывания с конференции по ИИ в Сколково:
- неравнетсво в доступе к технологиям во многом вызвано неравенством в доступе к базам данным, потому что обучение нейросетей именно на них
- неочевидные математические проблемы: после обучения непонятно, как работает нейронная сеть и почему дает именно этот ответ.
- проблема вагонетки для беспилотного автомобиля показывает, что не смотря на то, что этика не воспринимается, как технологический барьер, тем не менее, именно эту проблему не решить обучением нейронных сетей. И в целом это проблема курицы и яйца.
- этические норма меняются согласно технологическим нормам. Когда-то мы не могли помылисть вопрос "Какой у тебя генотип? ты когда умереть-то собираешься?"
- Однако и в другую сторону - что вчера казалось этичным, завтра может быть неэтичным.
АЕ: Как быть с контролем государства над технологиями? Конференция в Сколково - стимулирование публичной дискуссии на эту тему, объяснение, почему это важно. Невозможно регулировать технологии, потому что военные все равно захотят сделать по-своему. а главное - это образование всех участников рынка ИИ, чтобы люди потом через имеющиеся общественные институты в будущем следили за этой ситуацией.
ЕК: Как быть с контролем государства над технологиями?
Из этого следуют другие вопросы: Появление техносферы сделает классовые различия сильнее или слабее? А войны и конфликты станут чаще или реже?
Основной тренд в истории человечества - уменьшение уровня противоречий между сообществами. Технологическое развитие нас выравнивает и современная элита более ограничена этически. Развитие ИИ выведет нас на бОльшую внутреннюю этичность в отношении друг к другу. Потому что все будут пользоваться примерно одним и тем же интеллектуальным помощником, для которого все равны.
В конце 20-ого века мы вытеснили агрессию в спорт. Сейчас - в виртуальные игры. В будущем вероятно - в войны роботов и кибератаки.
ЕК: когда встанет вопрос не "нужны ли мы нам?" как "нужны ли мы им?"?. Это вопрос о субъектности ИИ. Как быстро машина начнут сравнивать нас с ними? Такой уровень разумности - следующий шаг и на более отдаленной перспективе. Мы преувеличиваем нашу способность влиять на прогресс. Люди - придаток прогресса, мы лишь участвует в этом. Если одни люди себя этически ограничат в какой-то технологической области, успеха в ней достигнут другие.
ЕК: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко?
Избиратель Трампа - это человек, который боится, что в университетском кампусе сделается что-то, что изменит его жизнь решительно к худшему. На самом деле большая часть технологических практик в мире ограничена этически. Когда китайцы сделали первый эксперимент с редактированием генома, все ученые в мире собрались на конгрессы и самостоятельно взяли на себя этические ограничения. Баланс между жаждой прогресса и готовность взять на себя ответственность за экзистенциальные риски. Но благодаря технологиям, государство теперь не единственный держатель ответственность. Благодаря соцсетями, блокчейну и подобным технологиям, общество теперь может самостоятельно взять на себя ответственность и распределенно принять решение. Правда, общество не начнет действовать, пока будущее не постучиться в дверь. Поэтому катастрофа с ИИ неизбежна, которая станет триггером для появления активного общественного дискурса на эту тему.
АЕ: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко? Нужны общественно-государственные органы, которые регулируют эту деятельность.
В новом докладе ООН, представленном на Конференции ООН по торговле и развитию, эксперты прогнозируют, что автоматизация труда затронет до двух третей рабочих мест в развивающихся странах, в особенности в Африке и Латинской Америке.
http://apparat.cc/news/un-report-robots-will-take-jobs/
Избрание Трампа приведет к свободным научным экспериментах вне государственной юрисдикции?
Ну ладно, заговок я, конечно, очень громко сформулировал. И мой пост - скорее фантазия на тему, чем аналитика и прогноз. Но интересно порассуждать:
Помню, была история с какими-то баржами Google, которые то ли должны были продавать Google Glass, то ли служить коворкингом для программистов, то ли и то и другое. Важно то, что их называли "тестовым полигоном" Кремниевой Долины по "уходу в нейтральные воды" - развитием известной идеи с плавучими городами-государствами. Идея в том, что в нейтральных водах строится остров, в рамках которого действует некоторая "нужная" политическая и экономическая система. "Нужная" для тех, кто такой остров профинансировал, в контексте Кремниевой Долины - это, видимо, была бы какая-то очень свободная экономическая зона со всеми современными политическими свободами, а также, с учетом движения Кремниевой Долины в сторону науки, в большой степени биотеха (вспомним проект научного центра по борьбе со старением, щедро финансируемый Цукербергами), на таких островах авторам проекта желательно было бы иметь законодательную легализацию свободных научных экспериментов: в первую очередь, биологических, в совсем первую - разрешение на запрещенное почти везде редактирование генома человека.
Тогда из этого проекта ничего не вышло, во всяком случае он не получил развитие, но, возможно, отчасти потому что в США и так все было хорошо для этих компаний, за исключением свободы экспериментов. Теперь поводов отделиться добавилось.
http://www.cnews.ru/news/top/2016-11-09_izza_pobedy_trampa_silikonovaya_dolina_hochet
Ложка дегтя про человеческую внешность роботов в реальном мире.
Объекты, достаточно похожие на нас внешне, но недостаточно совпадающие с нами в манере поведения, вызывают у людей негативные эмоции. Этот эффект получил название "Зловещая долина" («Uncanny Valley»).
Японский робототехник Масахиро Мори в 1970 году сформулировал эту идею так: чем больше мы будем стараться делать роботов похожими на людей, тем большее отторжение они вызовут.
Почему человек испытывает страх к человекоподобным роботам? Почему это часто выливается в опреждающую жестокость (лучшая защита - нападение)? Человеческий инстинкт, как один из барьеров развития технологий.
https://nplus1.ru/blog/2016/11/07/uncanny-valley-effect
Кроме того, что этот проект очень трогательный, он дает повод задуматься о том, насколько виртуальная реальность повысит качество эмоциональной-зависимой коммуникации (не все же vr-порно). То, что эффекты полного погружения могут быть востребовано в образовании и развлечениях уже очевидно, но тут еще и другие применения: психотерапия, коллетивная эмоциональная коммуникация.
Но самое важное - это новый уровень жизни для инвалидов, которые не могут двигаться. До тех пор, пока технологии не дойдут до такого уровня киборгизации. Вообще иронично, что технологии виртуальной реальности опередили медтехнику. Лет 15 назад в это было трудно поверить. И да, здесь вспоминается 4 серия последнего сезона Черного Зеркала.
Британский стартап Twine помог ветерану Второй мировой войны виртуально посетить французский город Армантьер, в освобождении которого от нацистской оккупации тот принимал участие в 1944 году. Во время виртуального путешествия 91-летний ветеран британского Королевского военно-морского флота Франк Мукэ встретился с благодарными жителями города, увидел посвящённое ему выступление школьного хора и получил медаль из рук мэра
https://youtu.be/PModuWq8hAI
(подробнее здесь: http://apparat.cc/news/second-world-war-veteran-vr/ )
Осторожно, помните: увидев раз, не развидеть.
Голосовой помощник Алекса установили в эту знаменитую рыбу.
http://www.theverge.com/2016/11/4/13525172/amazon-alexa-big-mouth-billy-bass-hack-api
На севере Ирака 2 октября бойцы курдского формирования Пешмерга и солдаты Франции перехватили небольшой дрон, который оказался начинённым взрывчаткой. В результате взрыва два французских солдата были ранены и два курдских повстанца погибли.
Боевики ИГ используют простые аппараты, такие как DJI Phantom, которые можно купить на Amazon. Оснащая их бомбами, боевики создают дистанционно пилотируемые бомбы. Таким образом, террористы смогли создать потенциально эффективное оружие на основе доступной технологии. «Мы должны были подготовиться к этому, но мы этого не сделали», — говорит эксперт по военным технологиям Питер Сингер.
http://apparat.cc/news/dron-isis/
Коллеги, наконец-то мы начинаем делиться с вами видеозаписями с конференции Future Foundation Technology Ethics. И для начала: выступление Виктора Вахштайна "Онтологические метафоры в социальных исследованиях технологий ", которое открыло конференцию.
https://youtu.be/P8Za5BBVONI
"Наше все" подросло и поумнело, и, конечно, здесь замешан алкоголь
У "нашего всего" - технологии глубокого обучения нейронных сетей, которая ближе всего сейчас находится к тому "чему-то", что мы понимаем под искусственным интеллектом, всегда была одна проблема. Она работала как черный ящик. Мы знаем, какие данные подсунули ей на входе, какие получили на выходе, но почему именно эти данные на выходе - не ясно.
Вообще говоря, это было очень антропоморфным свойством нейронных сетей: психологически сближало нас) И отдаляло технологию deeplearning от "обычного детерминированного программирования". Ведь все помнят знаменитую картину с Уиллом Смитом "- Робот не может написать симфонию // - А ты можешь?", ведь мы, люди, тоже далеко не всегда можем объяснить свои действия.Но это было и проблемой. Прежде всего, проблемой двоерия и лишь усиливало страхи перед ИИ. Ведь эволюционно в нас зашито больше всего бояться себеподобных (из школьного учебника биологии - внутривидовая конкуренция более сильная).
Был, например, кейс программы "SKYNET" АНБ США (не спрашивайте, кому пришла в голову назвать программу именно так), которая использовала алгоритмы машинного обучения на данных мобильных операторов Пакистана, чтобы оценить вероятность каждого человека в этой стране быть террористом. На основе этих данных экстремистов убивали (кстати, убивали дронами, но это уже не принципиально). В итоге программа подверглась критике правозащитных организаций на "непрозрачность", и когда началось расследование никто не смог объяснить, почему программа выбирали того или иного человека, включая саму программу. Здесь я писал об этом подробнее: /channel/peterlevichchannel/279
И вот наконец дитя человеческое вышло из "туманного" возраста и научилось рационально объяснять свои действия. Ну и конечно, здесь не обошлось без алкголя)
Команда из МТИ обучала нейросеть на текстах и пятизвездочных рейтингах с сайта, который собирает отзывы о пиве. Алгоритм анализировал текст на связность, изучал рейтинги. В результате стал действовать практически так же, как человек. Его оценки на основании текстов совпадали с человеческими, что вызывало доверие к решениям. Оценки вкуса и аромата он угадал в 96% случаев и в каждом из них можно было получить объяснение, на основе чего такая оценка получена.
Полная статья PDF: https://people.csail.mit.edu/taolei/papers/emnlp16_rationale.pdf
Краткая статья на русском: https://hightech.fm/2016/11/01/what_are_you_doing_neural_network
Однако упомяну в этом контексте "противовесную" новость: те же нейросети научились создавать такой алгоритм шифрования, который люди не могут взломать - то есть теперь они смогут общаться, а мы не сможем понять, о чем (статья: https://arxiv.org/pdf/1610.06918v1.pdf)
Смогут ли люди когда-нибудь понять разум, который радикально отличается от нашего?
Мюррэй Шэнэхен, профессор когнитивной робототехники в Имперском Колледже Лондона и лидер Центра Будущего Интеллекта им. Леверхюльма
осторожно - лонг-лонг-рид
http://fastsalttimes.com/sections/obzor/890.html