Как создать моральную машину?
Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.
Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?
Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.
Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.
А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.
http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Те темы, о которых здесь мы с вами говорим, я стараюсь осветить на семинарах, которуые провожу в Московском технологическом инстиуте. Следующий пройдет 11 мая в 19:30.
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Докладчик: Александр Сергеевич Мишура — аспирант Школа философии НИУ ВШЭ. Область научного интереса: модели индетерминистической каузальности в аналитической метафизике действия.
Доклад: "Этическая нейтральность технологий"
Эти семинары будут проходить в среднем раз в две недели.
Тематика семинаров:
- Социальные барьеры развития технологий
- Социальные риски технологий
Если вы хотите принять участие с докладом, напишите мне.
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Немного теоретической футурологии. Про термин "футурошок".
Термин «футурошок» Тоффлер впервые употребил в 1965 году в своей статье в журнале Horizon. Под этим термином он понимал стресс и дезориентацию, которые возникают у людей, подвергающихся слишком большому числу перемен за слишком короткое время.
Приводятся "за" и "против" этой теории. Если кратко - вопрос лишь в том, успеваем ли мы адаптироваться. Ускореяется ли и на сколько ускоряется наша адаптивность. То, что ускоряются технологии - факт.
И еще там интересно про "сжатие поколений".
https://newtonew.com/discussions/future-shock
Исчерпывающая статья про искуственный интеллект всех видов.
Статья в двух частях.
Приводят вся теоретическая база прогнозов, описываются сценарии и их вероятности.
Особенно здорово, что первая часть начинается с теории прогнозирования, и с описание принципа, который Рэй Курцвейл называет законом ускоряющейся отдачи человеческой истории. Это происходит, потому что у более развитых обществ есть возможность двигать прогресс более быстрыми темпами, нежели у менее развитых обществ. Люди 19 века знали больше, чем люди 15 века, поэтому неудивительно, что прогресс в 19 веке шел более стремительными темпами, нежели в 15 веке, и так далее.
Первая часть: http://hi-news.ru/research-development/iskusstvennyj-intellekt-chast-pervaya-put-k-sverxintellektu.html
Вторая часть: http://hi-news.ru/technology/iskusstvennyj-intellekt-chast-vtoraya-vymiranie-ili-bessmertie.html
Ученые из исследовательского центра IBM T.J. Watson хотят повысить производительность нейронных сетей в 30 000 раз. Для этого они намерены разработать резистивные процессорные блоки, которые увеличат скорость передачи данных и позволят искусственному интеллекту понимать речи и переводить со всех языков мира.
Глубокие нейронные сети можно обучить чем угодно, даже мастерской игре в го, но на этот процесс могут уходить дни и недели. Ученые из IBM Тайфун Гокмен и Юрий Власов хотят решить эту проблему с помощью резистивных процессорных блоков (RPU). Пока что такие устройства существуют лишь как концепция и представляют собой центральный процессор с энергонезависимой памятью.
С помощью такого «железа» можно научить нейросети распознавать естественную речь и переводить со всех языков мира.
http://hightech.fm/2016/03/29/resistive_chips
И снова privacy, и снова "безопасность vs свобода"
Зарегистрируй свою ДНК или плати: граждан Кувейта обязали сдавать генетический материал
Решение о создании базы ДНК граждан и гостей страны было принято после ряда террористических актов, совершенных в прошлом году. После этого правительство решило обезопасить себя на будущее. По образцам ДНК, найденным на месте будущих преступлений, правительство надеется устанавливать личность преступников — причем сделать это можно будет очень быстро.
https://geektimes.ru/post/274546/
На картинке результаты опроса Хабра
Коллеги, мы запустились.
Future Foundation - горизонтальное сетевое объединение людей, заинтересованных в областях:
- социальные барьеры для разивития технологий
- социальные риски технологий
Исследовательская, образовательная и просветительская деятельностью.
Подписывайтесь)
https://www.facebook.com/Future-Foundation-203176150066925
Интересно. О роли человека в истории. Возможно, блокчейн сможет эти вопросы сделать более распределенными и честными?
Читать полностью…Интересно про будущее гендера и кризис идентичности. Не задумывался с этой стороны.
Определение себя через гендерную роль - один из достаточно старых способов ответить на вопрос о человеческой природе, "кто я?" и "зачем я?". Способ прохода через кризис идентичности.
Но развитие науки, и в первую очередь биотеха и нейрофизиологии, дает человеку новые ответы. Когда мы понимаем, как это все работает, ответы становятся не столь простыми, но гораздо более интересными.Более того, научный дискурс дает человеку вариант прохода через кризис идентичности не с помощью акта определения себя, а с помощью акта сотворения себя. Цитата: "...is not an act of finding yourself but rather an act of creating yourself". В том числе и определения своего пола, очевидно, такая возможность появится скоро.
Но понятно, что для всего этого нужно распространенияе научных знаний.
http://ieet.org/index.php/IEET/more/Hamilton20160413
Форсайт Фейсбука от самого Фейсбука.
Дорожная карта на ближайшие 10 лет (картинка в следующем посте).
- дополненная реальность и виртуальная реальность с помощью одного девайса в виде обычных по размеру очков
- ИИ для релевантной выдачи ленты и диагностики рака по фотографии
- Проблему недостаточного проникновения интернета Facebook планирует решать с помощью дронов. Беспилотные самолеты, использующие лазеры, сделают интернет доступным для регионов с плохим покрытием. Для этого будет использоваться уже разработанный самолет под кодовым названием Aquila.
перевод @apparatmag http://apparat.cc/news/facebook-roadmap-decade/
оригинал: http://thenextweb.com/facebook/2016/04/12/facebook-reveals-10-year-roadmap/
Резкое увеличение разницы продолжительности жизни между богатыми и бедными - один из рисков прорыва в биотехе.
Там же кстати и про сбор персональных генетических и других биоданных
https://www.statnews.com/2016/04/07/google-verily-ethical-questions/
Шутки-шутками (см следующую картинку), а вот в сериале Каприка была очень интересная идея цифровой религии - раем служил сервер, в который после смерти загружалось сознание. Разумеется, за преданность определенной религиозной корпорации при жизни. Хотя вероятнее всего, это будет за деньги.
Читать полностью…И продолжаем про образование.
Эволюция приводит к тому, что шарах-тарарах — и появляется что-то новенькое, при сохранении всего старенького. Evolution by jerks, а не evolution by creeps (см. работы Gould в 70-х годах, которые отменили за словом "эволюция" постепенность и направленность и наоборот, закрепили внезапность и ненаправленность). В нашем случае из новенького:
— появилась возможность сознательно вмешаться в биологическую эволюцию (часть биологических видов подвергнуть истреблению, а человеческие племена — геноциду, а для баланса путём генной инженерии дать возможность производить ГМО, включая генно-модифицированных людей. Ну, или воскресить каких-нибудь мамонтов, или даже могикан из их останков). Уже понятно, что это всё технически возможно, и нужно только захотеть. Политические философии вынуждены с этим начинать работать.
— в мире виртуального стало в разы и разы больше, чем физического. С одной стороны, мало что изменилось, и политические философы могут спать спокойно, но с другой стороны — много что изменилось, ибо в виртуальности уже проглядывают контуры машинного интеллекта. Да, искусственный интеллект ещё совсем не сравним с человеческим (что бы слово "интеллект" ни значило), но в этой области явно наметился прогресс. Робот станет "говорящим орудием", но дальше сам чёрт не поймёт, кто кому там будет подчиняться.
— времени на обсуждения практик остаётся мало, ибо сегодня придумали что-то новенькое — и через интернет завтра это будет доступно миллиардам как знание, а через месяц поддержано оборудованием в достаточном количестве. Политикам некогда обсуждать последствия новых практик и связанных с ними технологий, а оптовые запреты сразу порождают суровую критику.
http://ailev.livejournal.com/1258949.html
- Искусственные утробы
«Это любое устройство, биологическое или технологическое, которое позволяет людям размножаться без использования матки женщины», — говорит Анна-Ли Ньюитц. Иногда его называют «маточным репликатором»: это устройство способно освободить женщин от биологических трудностей, сопряженных с беременностью, и избавить сам акт воспроизводства от традиционного спаривания мужчин и женщин. «Искусственные утробы смогут развиваться наряду с социальными структурами, поддерживающими семьи с более чем двумя родителями, а также гомосексуальные браки», говорит Ньюитц.
http://hi-news.ru/science/20-vazhnyx-terminov-kotorye-dolzhen-znat-kazhdyj-futurolog-21-veka.html
Privacy снова в фокусе. Как уже говорил раньше, похоже, что это - очень важный камень преткновения в будущем. Причем интересно, что технологии здесь могут использовать обе стороны.
Проект издания The Atlantic "Liberty in the Information Age".
Включает статьи по темам:
- как безналичный расчет может помочь "Большому Брату"
- как Big Data вредит жителям бедных районов (вкратце - с точки зрения алгоритмов анализа законопослушный житель криминального района "окриминализируется" из-за частого засвечивания на фото и других информационных каталогах рядом с криминалитом)
- наблюдение и инакомыслие в интернете
- шифрование как роскошь
- кто должен иметь доступ к записям нательных камер полицейских (вкратце - очень много споров о том, является ли это персональными данными или публичными, и в каком случае конкретно какими. Кстати, хотят дать доступ всем академическим исследователям к записям, что интересно.)
и другие...
http://www.theatlantic.com/projects/liberty-in-the-information-age/
В какой-то момент допущение человека до проведения операции будет считаться преступной халатностью. Как и с живым водителем на дороге.
http://apparat.cc/news/pig-robot-surgery/
Немного инсайтов об исследовательском проекте OpenAI - сколько денег и кому предлагал, кто курировал встречи. И вообще история создания проекта.
А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"
Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?
Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».
В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.
http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
Согласно опросу компании ComRes, приуроченному к FutureFest2016, 26% британцев возрастом от 18 до 34 лет с удовольствием имели бы любовные отношения с человекоподобным роботом. Всего в опросе участвовали 1002 взрослых британца.
Среди взрослых в целом этот показатель ниже — 17%. 50% британцев, использующих бесконтактные платежные карты, не отказались бы от вживления в руку чипа, позволяющего расплачиваться за покупки и играющего роль пропуска.
23% респондентов согласились бы заменить свой ужин таблеткой, а 33% уверены, что через 20 лет чай по-прежнему останется самым популярным напитком королевства. Использовать тест ДНК вместо Tinder согласились бы всего 20% взрослых британцев. 51% опрошенных также полагают, что через 20 лет наличные деньги выйдут из употребения.
http://apparat.cc/news/future-poll/
Виртуальная реальность - лучшая технологий для передачи историй.
http://ieet.org/index.php/IEET/more/Rivera20160505
Про базовый доход уже много писал, а вот новенькое:
http://forklog.com/storonniki-otritsatelnoj-protsentnoj-stavki-razrabatyvayut-bonusnuyu-sistemu-na-blokchejne/
Коллеги, 27 апреля в 19:30 состоится 1-ое заседание семинара по взаимодействию технологий и общества.
Это НЕ научно-популярный лекторий, и НЕ митап. Это научный семинар с докладом на 40 минут, вопросами и содержательной дискуссией на тему доклада.
Докладчик: Константин Фрумкин - кандидат культурологии, заместитель главного редактора журнала «Компания», координатор Ассоциации футурологов.
Доклад: «Влияние развития информационных технологий на мышление"
Эти семинары будут проходить в среднем раз в две недели. Тематика семинаров:
- Социальные барьеры развития технологий
- Социальные риски технологий
Если вы хотите принять участие с докладом, напишите мне.
Организаторы:
- Московский технологический институт
- Future Foundation
Мероприятие закрытое. Для участия вам нужно зарегистрироваться здесь https://futuref.timepad.ru/event/319850/. Эта регистрация является подачей вашей заявки на участие, и, в случае одобрения вашего участия, вам придет подтверждение. Преимущество отдается претендентам, занимающимся исследовательской деятельностью.
Хороший большой текст на The Verge про людей, которые занимаются модерацией контента на всяких больших сайтах типа YouTube, Facebook, да и вообще в интернете в целом; про людей, которые реагируют, когда вы отмечаете что-нибудь, как недопустимое, которые ловят троллей и удаляют всякие ужасы — и они, в общем, работают интернет-цензорами.
The Verge рисуют такую картину, что а) это огромная и довольно скрытная индустрия б) не до конца понятно, по каким правилам она работает — и это конечно зависит от конкретных сайтов в) они в состоянии влиять на судьбу всяких важных движений типа #BlackLivesMatter или Арабской весны, и в конечном счёте они руководствуются какими-то своими внутренними принципами.
В целом это текст про вопрос, с которым мы каждый день в интернете сталкиваемся: что важнее — сохранять полную свободу слова или всё-таки сражаться с откровенными мерзостями?
http://www.theverge.com/2016/4/13/11387934/internet-moderator-history-youtube-facebook-reddit-censorship-free-speech
Исчерпывающая классификация точек зрения в биополитике. Всего четыре:
1. Либертарианский трансгуманизм
2. Технопрогрессизм
3. Левый биоконсерватизм
4. Правый биоконсерватизм
А дальше сравниваются их позиции по пунктам:
- гуманизм vs религиозное право
- индивидеальная свобода vs "Yuck factor" (это про то, что если что-то кажется интуитивно плохим без рациональных оснований, то его и стоит признать плохим)
- технологические риски
- экология
- глобализация
- базовый доход
- равенство в доступе к технологиям
- право на гражданство (это про признание киборгов и роботов гражданами и так далее)
А также список групп, ассоциаций и движений по каждой из позиций.
http://ieet.org/index.php/IEET/biopolitics
Нидерланды планируют к 2025 году запретить продажи всех машин на сгораемом топливе.
http://fusion.net/story/291302/netherlands-wants-to-ban-gas-cars/
Google запускает проект Baseline. Это биотех на основе медицинской Big Data.
Про проект Google "Baseline". Это биотех на основе медицинской Bog Data.
В статье достаточно жестокий, но понятный пример, объясняющий основную идею. Например, человек приходит к врачу, он полностью его исследует, все данные, разумеется, сохраняются в электронном виде. А на следующий день - так случилось - у человек сердечный приступ (ведь всего предугадать нельзя). Но на основе этого случая и многих аналогичных можно понять, какой химический анализ крови и другие биоданные могут предсказать скорый сердечный приступ.
Ну а дальше на все это навешивается deeplerning (куда же без него).
и второй пример из статьи (уже метафорический) - если у вас есть спички в кармане, у вас бОльшая вероятность рака легких. Потому что скорее всего они вам нужны для курения.
https://www.statnews.com/2015/12/02/google-doctor-jessica-mega/
Если кратко - у человека монополия на эмоциональный интеллект, поэтому не надо бояться машинного интеллекта, а надо с ними объединяться.
http://techcrunch.com/2016/04/12/the-era-of-ai-human-hybrid-intelligence/
Вышла моя статья про сценарии влияния на общество технологий анализа генома и CRISPR. Куда хотим прийти и как не прийти туда, куда не хотим.
Вы-то все это уже знаете - я публиковал в канале все эти мысли кусками. Но теперь собрано в единый текст.
У меня есть еще одна версия статьи на эту же тему - научная, а не научно-популярная на 18000 знаков с упоминанием философского контекста - детерминизма и фатализма. Но ее опубликую позже.
http://rusbase.com/opinion/ethics-genetics/
Педагогические профессии будущего
Футурология педагогики: разбираемся, где пролегают фронтиры сферы образования и какие новые профессии появятся в ближайшие двадцать лет.
- инструктор по интернет-серфингу
- веб-психолог
- междисциплинарный тьютор
- электронный ассистент
- разработчик образовательных траекторий
- брейн-тренер
- лайфстайл-тренер
- техник образовательных игровых сред
и другие
https://newtonew.com/overview/future-professions
Интересная статья про термины футурологии. Есть некоторая примитивность подхода, но как словарик - отлично.
Скопирую самое интересное:
- Со-наблюдение - решение проблемы слежки за гражданами с помощью компенсации слежкой граждан за теми, кто следит за ними. Сложно, да. Но идея интересная.
- Мультиплексовый родитель
Не так давно в Великобритании разрешили использовать биотехнологический прорыв, по которому ребенок может иметь трех генетических родителей — от спермы, яйцеклетки и (отдельно) митохондрии. Изначально это заявлялось как способ побороть надоедливые генетические заболевания. Но его также можно использовать для практики селекции человеческих качеств, или так называемых «дизайнерских младенцев». В США уже рассматривают возможность использования этого метода.
- Нравственное (моральное) усиление
Джеймс Хьюз говорит, что нравственное усиление — еще один важный термин для футурологов 21 века. Известный также как добродетельная инженерия, этот метод подразумевает использование лекарств, носимых и имплантируемых устройств для повышения и усиления самоконтроля, эмпатии, сопереживания, честности, внимательности, сообразительности и душевного самочувствия.
- Эффективный альтруизм
Это еще один термин, предложенный Стюартом Армстронгом. Он описывает его так: «…эффективные траты на благотворительность и другие альтруистические устремления. Подобно тому, как некоторые инженерные подходы могут быть в тысячи раз более эффективными при решении проблем, чем другие, некоторые благотворительные методы в тысячи раз более эффективны, чем другие. Повышение эффективности сказывается на большем числе спасенных жизней, большем числе выгод и возможностей для людей по всему миру. Считается, что если благотворительность может быть эффективнее, нравственный долг — сделать ее такой: неэффективность сродни тому, что дать людям умереть».
- Принцип проактивности
Этот термин изобрел Макс Мор, президент и исполнительный директор Фонда продления жизни Alcor. Отчасти это частный случай принципа предосторожности. «Наша свобода в технологических инновациях очень ценна — даже важна — для человечества, — рассказал он. — Это накладывает несколько императивов по части предложения мер предосторожности: проводить оценку рисков и возможностей в соответствии с имеющейся наукой, а не опираться на популярное восприятие. Учитывать, с одной стороны, стоимость самих ограничений, и с другой — упущенных возможностей. Предпочитать меры, которые пропорциональны вероятности и величине воздействия и которые имеют высокую ценность ожидания. Защищать свободу людей в экспериментах, инновациях и прогрессе».
- Мулы
Жамэ Кашио предложил этот термин, хотя и признал, что используется он нечасто. Мулы — это неожиданные события (параллель с «черными лебедями»), которые не только лежат за пределами наших знаний, но и за пределами нашего понимания того, как устроен мир. Это отсылка к Мулу Азимова из серии «Основание».
- Антропоцен
Еще один термин Кашио, подразумевающий «текущую геологическую эру, характеризующуюся значительными изменениями экосистем за счет человеческой деятельности».
- Риск эволюционируемости (evolvability risk)
Наташа Вита-Мор описывает это как способность видов производить варианты, которые более устойчивы или которые сильнее существующих ныне в пределах вида:
«Один из способов понять эволюционируемость — рассмотреть любую систему, общество или культуру, например, которая обладает свойствами, способными к эволюции. Современная культура более эмерджентная и изменчивая, чем физиологические изменения, происходящие в человеческой биологии. За несколько тысяч лет инструменты людей, язык и культура изменились, эволюционировали многократно. Использование инструментов в пределах культуры определялось этой культурой и демонстрировал наблюдаемые признаки эволюционируемости — от камней к компьютерам — в то время как физиология людей оставалась по сути такой же».
Обоснование всеобщего базового дохода через объединение deeplearning, персональные интеллектуальные помощники, робототехнику, включая беспилотные авто.
Я тут нахожу иронию: социализм (с точностью до определений, очень трудно избавиться от ассоциации с ним), который противостоял капитализму, может частично оказаться ближе, чем мы думали, благодаря технологическому пакету, спродуцированному капиталистической технологической гонкой.
Близится мир, где машины могут выполнить работу любого из четырех типов (рутинную когнитивную, рутинную ручную, разнообразную когнитивную и разнообразную ручную), а это значит, что грядут серьезные социальные перемены. Если машина может выполнить работу вместо человека, должен ли человек выполнять эту работу, чтобы прокормить себя? Должен ли сам доход оставаться связанным с трудоустройством, а наличие работы — единственным способом получения доходов, в то время как рабочие места для многих совершенно недоступны? Если машины выполняют все большее количество нашей работы и не получают за это денег, куда деваться этим деньгам?
«Вы хотите, чтобы половина людей на планете голодала просто потому, что они буквально не могут привнести экономическую ценность или нет? Если ваш ответ „нет“, то наиболее разумным способом распределения богатства будет введение всеобщего базового дохода»
Руководитель исследовательских работ Baidu и основатель проекта глубинного обучения «Google Brain» Эндрю Нг в ходе интервью со сцены на Саммите глубинного обучения высказал распространенное мнение, что безусловный доход должен быть «всерьез рассмотрен» правительствами, ссылаясь на «высокую вероятность того, что ИИ создаст массовое перемещение рабочей силы».
из @apparatmag
Русский перевод: http://apparat.cc/world/jobs-for-machines-life-for-people/?utm_source=vk&utm_medium=share&utm_campaign=social
Оригинал на английском: https://medium.com/basic-income/deep-learning-is-going-to-teach-us-all-the-lesson-of-our-lives-jobs-are-for-machines-7c6442e37a49#.v59w30s9v