Лонгрид про замену людей роботами, отсутствие работы, культ досуга и экономическую модель всей этой ситуации.
"Надежда, что машины освободят нас от тяжёлого труда, всегда переплеталась со страхом, что они отнимут у нас средства к существованию. Во время Великой депрессии экономист Джон Мэйнард Кейнс предсказал, что технический прогресс обеспечит нам 15-часовую рабочую неделю и вдоволь отдыха к 2030 году. Примерно в то же время президент Герберт Гувер получил письмо, в котором содержалось предупреждение о технологии, как о «монстре Франкенштейна», который угрожал производству, и грозил «поглотить цивилизацию». (Забавно, что письмо пришло от мэра Пало Альто). В 1962 году Джон Кеннеди сказал: «Если у людей есть талант к созданию новых машин, которые лишают людей работы, у них будет талант для того, чтобы снова дать этим людям работу». Но два года спустя комиссия учёных и социальных активистов отправила открытое письмо президенту Джонсону, в котором утверждали, что «революция кибернации» создаст «отдельную нацию бедных, неумелых безработных», кто не сможет ни найти работу, ни позволить себе предметы первой необходимости."
https://geektimes.ru/post/276566/
Эту статью все уже наверняка прочитали, но тем не менее, тезисно:
- страхи перед появлением ИИ Маск теперь сфокусировал только на компании Google ("если мы его правильно поняли")
- Про киборгизацию: "Мы уже являемся киборгами. У вас есть цифровая версия себя, частичная версия собственной личности в онлайне в форме ваших электронных писем, ваших социальных медиа и всех ваших действий." Тут я не могу не отметить, что, видимо, Маск читает мой фейбук, потому что за пару дней до его выступления я писал примерно это в заметке про Силиконом)) вот: https://goo.gl/nKMCYr
- единственное ограничение на процесс киборгизации - это скорость интерфейса мозг-компьютер. Сейчас - это ввод пальчиками по клавиатуре. Должно быть - нейроинтерфейс. Тогда мы будем не конкурировать с ИИ, а работать вместе (теория "кентавров"). Это одно из решений проблемы противостояния с ИИ.
- про симулятор реальности - все уже слышали. Как минимум круто, что человек уровня Маска может себе позволить говорить такие смелые идеи (он сказал, что возможно мы живем с симуляторе реальности). Представьте, чтобы кто-то из российских топовых бизнесменов сказал такое - заклевали бы. Это к слову о недавней теме, обсуждаемой частью моей ленты в фейсбуке про то, что в России крайне стигматизированы мечтания и все ушло в очень глубокий прагматизм. При этом я совершенно не имею в виду, что согласен с Маском насчет симулятора, но это не важно.
- колония на Марсе будет управляться прямой демократией. И отмена закона станет проще, чем его принятие. Если для принятия закона нужно 60% голосов граждан, то для его отмены (если закон оказался плохим) — всего 40%. Кроме того, для снижения инерции устаревших законов каждый закон должен приниматься с датой окончания его действия. По наступлении этой даты происходит ещё одно голосование.
https://geektimes.ru/post/276748/
Портал с образовательными материалами по этике для инженеров, ученых, преподавателей, студентов и вообще всех заинтересованных в ответах на вопросы, возникающие в области взаимодействия науки и технологий с обществом.
Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.
http://www.onlineethics.org/
Библиотека материалов по образованию в области этики технологий и научной этики от Технологического Института Иллинойса.
В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ
http://ethics.iit.edu/eelibrary/
Я уже рекомендовал всем сериал Person of Interest? Вроде нет.
Он замечателен. Про то же, про что мы тут постоянно: privacy, прозрачный мир, ко-наблюдени, сингулярность.
Кратко: спецслужбы сделали ИИ, который имеет доступ ко всем камерам, микрофонам телефонов, переписке - то есть ко всему силиконому (см мой предыдущий пост https://goo.gl/nKMCYr), но и не только. Так сказать к коллективному силиконому человечества.
Этот ИИ делал очень харизматичный профессор (который еще и стильно одевается - см картинки к посту), он думал этике этого ИИ (вообще очень много размышлений о кодификации этики (привет Pavel Luksha)). И этот ИИ был "добрым и хорошим".
Что-то пошло не так и спецслужбы сделали второй ИИ - и он как раз решил (как в любом нормальном scifi), что ради счастья человечества нужны жесткие меры.
Жанр всего этого - боевик, что немного принижает уровень повествования, но все равно очень неплохо. Это, конечно, не Черное Зеркало и не Каприка (о них еще напишу) и не Стар Трек, но из современного - рекомендую.
Подумалось вдруг...
Пусть наша личность, сознание, "я" описывается состоянием коннектома (connectome) и метаболома (metabolome) в данный момент времени (совокупность и конфигурация всех нейронов, их связей, распределения зарядов, а также всех синапсов, молекул нейромедиаторов, гормонов и тд). Тогда, если рассмотреть нашу современную жизнь в целом, то для полного описания состояния нужно добавить третью составляющую: персональное цифровое окружение - профили в социальных сетях, вся информация из писем в ящике электронной почты, наши комментарии и ответы. Потому что мы в большой степени олицетворяем свою страницу в социальной сети с "я", ее конфигурация явно зависит от нашей личности. Доказать это можно попробовать от противного - если бы вы зашли в свой фейсбук и обнаружили бы, что кто-то отредактировал там раздел "информация о себе", которая не соответствует фактам вашей жизни - вы бы, конечно, чувствовали себя неудобно? Конечно, и по вполне рациональным причинам - это вводит в заблуждение друзей и коллег, но не только. Не только по рациональным, вы бы почувствовали будто кто-то влез к вам в голову и изменил что-то в вашем самосознании, разве нет?
Можно доказать это и не "изнутри", но и "снаружи": сейчас гораздо большее число людей составляет свое мнение о нас по цифровому следу, а не по личному общению. Пропорцию можно увязать кое-как с числом Донбара, но не разбираясь глубоко, эмпирически у меня это 10 к 1.
Можно назвать эту третью часть siliconome, по аналогии с теми двумя ome'ами. Силиконом.
Наверное, вскоре личность в целом даже юридически будет неотделима от силиконома. Это идет немного в разрез с анонимностью в интернете (которой я сторонник), но будем честны - в большинстве случаем мы и не хотим этого отделения, даже боимся его - см пример из предыдущего абзаца.
Ну а потом придет развитая AR и VR, deeplerning тоже доразовьется. И в момент того, как мы оффлайн, наш аватар - deeplerning интеллектуальный агент собранный и обученный на нашем силикономе - будет вполне себе активно действовать в VR-мирах. Не проявлять явной инициативы (все же мы пока не рассматриваем вариант "сильного ИИ"), но так ли часто мы будем проявлять в VR явную инициативу? Не думаю, что его внутри VR можно будет отличить от аватара, управляемого человеком онлайн.
В целом, технологический пакет для этого уже почти собран - нейронные сетки обучаются на записях с форума и обманывают студентов, обучаются на архиве электронной почты и ведут сами каналы в телеграме и так далее.
И тут возникает интересный момент со смертью. Умирает только коннектом и метаболом. Силиконом живет себе сколь угодно долго, а обученный на нем deeplearning агент может активничать в VR не хуже прежнего. В этом ограниченном смысле цифровое бессмертие возможно. Приходишь на сервер VR и далеко не сразу можешь понять, сколько процентов от его "жителей" - обученные на силикономе уже мертвого человека нейронные сетки. Думаю, здесь первый раз в истории, слово "призрак" можно будет употреблять без всякого смещенного смысла.
Футурологичненько. Нужна космическая экспансия, а иначе он прав окажется.
Основатель Alibaba: через 200 лет людям законодательно запретят жить вечно
"С имеющимися технологиями и имеющимися данными, бьюсь о заклад, в ближайшие 30-40 лет человек раскодирует человеческое тело, мы будем жить дольше — мы решим проблемы рака. Может быть, через 200 лет будет закон о том, что ни один человек не должен жить больше 200 лет"
РИА Новости http://ria.ru/science/20160526/1439687294.html#ixzz49rjhWx2J
1 июня в Москве пройдет четвертый семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.
Спикер: Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330560/
Участие бесплатное.
25 мая в Москве пройдет третий семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.
Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».
Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/
Участие бесплатное.
Коллеги, приглашаю вас на четвертое заседание семинара по взаимодействию технологий и общества 1 июня в 19:30, на котором выступит Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".
Регистрация: https://futuref.timepad.ru/event/330560/
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330560/
Организаторы:
- Московский технологический институт
- Future Foundation
Расширенная версия моей статьи по этическим вопросам редактирования генома.
Добавил связь с философскими аспектами детерминизма.
Абстракт:
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.
http://www.therunet.com/articles/6704
Ассистентом профессора Georgia Tech стала программа IBM Watson. Это был эксперимент профессора. В обязанности ассистента входит напоминать про дедлайны по эл почте и прочие орг вопросы. Программа была обучена на 40000 записях студенческого форума. Никто из учеников не заметил разницы.
http://www.theverge.com/2016/5/6/11612520/ta-powered-by-ibm-watson
Если кратко - он решал диффуры, женщина увидела в них "странные символы и вычисления".
Мне вся эта история напоминает описанные многими фантастами (Азимов "Основание", например) сюжет, когда из-за большого разрыва в образованности в обществе, наука сакрализируется, ученые считаются монахами и магами большей частью общества, инженерные объекты (атомные электростанции, например) становятся предметами культа, храмами, дарующими магическую энергию.
Весело, в общем.
https://geektimes.ru/post/275504/
Действительно ли технологии управляют нами? Можем ли мы контролировать их развитие? На кого ложится ответственность за изобретения? Эти вопросы обсудили для Apparat аспирант Школы философии НИУ Высшей школы экономики Александр Мишура и директор департамента взаимодействия науки, технологий и общества Московского технологического института Петр Левич (@peterlevichchannel).
http://apparat.cc/human/technology-ethics/
В Дубае собираются делать робото полицейских. Сотрудничают с Google и IBM Watson.
http://www.vocativ.com/324664/dubai-robot-police/
Очень много вариантов проблемы вагонетки
http://www.huffingtonpost.com/linch-zhang/behind-the-absurd-popular_b_10247650.html
Про мораль роботов и однополый браки
Друзья, это замечательно! Статья "Как создать морального робота?". Кратко: описывается идея создать семантическое поле выражений, фраз и слов, в общем - смыслов, которыми люди оперируют при описании моральных решений. А дальше обучить робота на этой базе.
Но самое печально-интересное в этой статье - это второй комментарий от некого эксперта по кибер-безопасности Бифа Хенерсона. Если бы это был российский сайт, я бы подумал, что это бот из Ольгино. А здесь - вот даже не знаю, всерьез ли он - комментарий наполнен клеше до степени карикатурности. Вот дословный перевод:
"Кто решает что правильно, а что не правильно? Как мне кажется, американское общество потеряло свой путь. Я определенно не хочу, чтобы оно [американское общество] закладывало свою систему ценностей в моего робота. Мужчины вступают в брак с мужчинами, убивают детей, позволяют мужчинам находиться в публичном душе с маленькими девочками, безнаказанно употреблять наркотики, нарушаются иммиграционные законы и так далее... Надеюсь, роботы будут разделять истинные ценности, такие, которые определили наши бабушки и дедушки"
http://spectrum.ieee.org/video/robotics/robotics-software/how-to-build-a-moral-robot
Доклад Президентской комиссии США по изучению проблем биоэтики (Presidential Commission For The Study Of Bioethical Issues): "Биоэтика для каждого поколения - дискуссия и образование в области медицины, науки и технологий".
Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.
Краткое содержание:
Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.
Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.
Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".
Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.
Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.
Про отношения человека и технологий. Это фрагмент "Лесного пути" Эрнста Юнгера в переводе одного из наших спикеров департамента STS МТИ и Future Foundation Александра Мишуры.
"Лесной путь нельзя понимать как направленную против мира машин форму анархизма, хотя искушение к этому и велико, особенно если одновременно стремятся создать связь с мифом. Мифическое несомненно придет и уже на подступах. Оно вообще всегда на месте и в добрый час словно сокровище восходит на поверхность. Однако мифическое отталкивается именно от высочайшего, вознесшегося движения как иной по отношению к нему принцип. Движение в этом смысле является лишь механизмом, криком рождения. К мифическому не возвращаются, с ним вновь встречаются, когда время колеблется в своих устоях, а человек находится в области величайшей опасности. Кроме того, неверно говорить: «виноградная лоза или…», но верно говорить: «виноградная лоза и корабль». Растет число тех, кто хочет покинуть корабль, среди них есть ясные головы, и добрые души. По сути это означает сойти с корабля в открытое море. За этим последует голод, каннибализм и акулы, короче говоря, все страхи, известные нам по плоту «Медузы». Потому в любом случае благоразумно оставаться на борту, даже ценою опасности взлететь с ним на воздух."
Неожиданно в российском ГИБДД думают и про ответственность за ДТП беспилотников, и про то, что это снизит количество аварий только в случае распределенной интеллектуальной транспортной системы. Радует.
"Отсутствие нормативной базы и законов, регламентирующих использование и владение беспилотными автомобилями, ставит перед госорганами задачу "скорейшей регламентации таких правил", говорят в ГИБДД России. Тема эксплуатации автономных транспортных средств активно обсуждалась в пятницу участниками форума по обеспечению безопасности дорожного движения. В Госавтоинспекции призывают заранее позаботиться о том, кто будет нести ответственность за ДТП с участием автономных машин или, например, уголовные преступления, совершенные с помощью беспилотников."
Подробнее: http://www.kommersant.ru/doc/3000209
Мир абстолютной прозрачности наступает
...10 камер внутри ночного клуба: одна камера на входе - фиксирует всех входящих, девять камер для контроля посетителей.
На входе, кроме камеры, расположен киоск самообслуживания для верификации посетителей по ID, если верификация пройдена успешно (совершеннолетний, не забанен в клубе, адекватность не вызывает вопросов) в работу включается визуальный контроль, отслеживающий перемещение человека. Фиксируется все: сколько выпил, столкновение с другими участниками тусовки, процент агрессии и т.д. Если лицо часто перемещается по вертикальной линии (человек падает) или агрессивно себя ведет (отслеживается специальными алгоритмами) - охрана выводит такого посетителя. Драка внутри клуба - человек банится поданным ID и лицу...
Это реальный кейс который нам прислали на анализ: возьмемся за реализацию или нет. Страна - ЮАР.
Видео семинара "Этическая нейтральность технологий" 11 мая.
https://youtu.be/UYS3X1e8oqE
Стартап Luka выпустил чат-бота на основе переписки погибшего человека – бывшего арт-директора «Стрелки» Романа Мазуренко.
Чат-бот воссоздает образ Романа, используя данные из его переписки с друзьями, а также фотографии, статьи и посты в соцсетях. «Черное зеркало» наяву.
http://rusbase.com/news/black-mirror/?f
Для полноты картины. Роботизация показала, что даже в западном обществе сексизм все еще актуален.
http://qz.com/684879/even-artificial-intelligence-robots-face-stereotypical-sexism-in-the-workplace/
Коллеги, приглашаю вас на третье заседание семинара по взаимодействию технологий и общества 25 мая в 19:30, на котором выступит Максим Киселев - доктор социальной психологии, ментор и эксперт Фонда "Сколково" , ментор проектов Skoltech , эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.
Регистрация: https://futuref.timepad.ru/event/330501/
Максим расскажет о восприятии обществом новых технологий на примере дилеммы мирного атома. Несколько тезисов доклада:
- Грустный юбилей – 30 лет Чернобыльской катастрофы.
- Восприятие людьми технологических катастроф.
- Уроки Чернобыля и Фукусимы.
- Синдром NIMBY (Not In My Back Yard) и «культурный страх».
- Связь коммуникаций и реакции людей на ядерную энергетику.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330501/
Организаторы:
- Московский технологический институт
- Future Foundation
Химики из Хаверфордского Колледжа и Университета Пердью в США разработали систему машинного обучения, которая позволяет предсказать результат химической реакции на основе базы данных, собранной из лабораторных журналов исследователей. Точность предсказания системы (по крайней мере по одному типу реакций), достигла и даже превысила предсказательные способности профессиональных химиков. Описание системы опубликовано в журнале Nature.
https://nplus1.ru/news/2016/05/05/neoneo
Еще на один шаг ближе к персональным интеллектуальным агентам. Это тот аспект ИИ, с которым мы все столкнемся очень скоро.
Недавно вот нужно было найти отель с количеством звезд на букинге не менее N и чтобы рядом был ресторан с количеством звезд на форсквере не менее P. И чтобы дизайн в отеле был как нравится.
Очень неудобно решать эту проблему (а это классическая проблема оптимизации) вручную через два приложения. Кейс как раз для таких персональных интеллектуальных агентов, и принципиально важен в них deeplerning - чтобы они знали что значит "нравится дизайн" именно для меня.
Из статьи:
В конференц-зале Сан-Хосе, городе стартапов, группа инженеров решила заказать себе пиццу необычным способом. Один из сотрудников наклонился к смартфону и произнес: «Хочу пиццу из Pizz'a Chicago рядом с офисом». Это их первый реальный тест искусственного интеллекта Viv, над которым команда работает уже год.
Через 40 минут, после того как Viv несколько раз ошиблась с адресом офиса, курьер привёз пиццу. Когда это случилось, команда взорвалась аплодисментами. Они сделали заказ без единого звонка, без поиска в Google, вообще не обращаясь к клавиатуре. Мало того, никто даже не думал устанавливать для этого специальные приложения.
Лонгрид на русском: http://rusbase.com/longread/viv/
Новость на английском: http://techcrunch.com/2016/05/09/heres-what-viv-looks-like-the-next-generation-ai-assistant-built-by-siri-creator/
Побеседовали с философом Александром Мишура об этической нейтральности технологий.
На самом деле диктофонная запись беседы на 40 минут, но пока - промо-версия разговора.
А 11 мая в 19:30 Александр выступит с этой темой на семинаре https://futuref.timepad.ru/event/325867/ в Московский технологический институт «ВТУ», приходите, будет интересно.