Проблематика необходимости подготовки специалистов к будущему, которое меняется слишком быстро (из-за ускорения развития технологий). Шутка (на самом деле не шутка) про студента ВМК МГУ, компетенции которого устаревают раньше, чем он выпускается: теперь такая проблема начинается и в области инженерии, и биотехнологий.
И я некоторое время назад столкнулся с этим - мы в МТИ сделали концепцию урока технологии в школе (АСИ конкурс объявляло, мы выиграли, кстати). Мы там написали про создание биороботов, кодификацию этики ИИ и подобное, казалось бы, совершенно научно-фантастическое (вот тут про это есть подробно: /channel/peterlevichchannel/575 ) Но ведь к этому и нужно готовить детей, иначе это будет про настоящее, а не про будущее.
И я эту концепцию презентовал на EdCrunch и столкнулся с критикой со стороны слушателей-преподавателей - что, мол, а как учить тому, чего еще нет? Где возьмем этих специалистов? И я согласен с этими вопросами, они важны. Но не готовить людей к будущему - тоже не выход.
Недавно сразу и у Тимура Щукина и у Евгения Плужника увидел эту статью Александра Асмолова http://www.ng.ru/scenario/2016-10-25/10_6843_varvar.html - очень хорошо описана эта проблема - в связке с новыми технологиями и future shock.
А вот про это пишет Анатолий Левенчук: http://ailev.livejournal.com/1308210.html что учить нужно навыкам ("В эпоху, когда живёшь в переменах и любая дисциплина оказывается устаревшей в тот момент, когда её освоишь, переходить нужно на усиленное обучение "мета" умениям и мышлению, лежащему в основе множества самых разных дисциплин. В результате получаешь человека неглупого, который способен быстро разобраться в новой предметной области.")
Предлагал эту тему к обсуждению сразу в двух местах, где участвую: в наших регулярных круглых столах про фундаментальные основания педагогики в МПГУ и в клубе по техноэтике.
13. Maria Arendt придумала такой проект: нейронная сеть обучается на всем материале ее творчества, сделанном в прошлом, и выдает новые образы, а она затем снова переводит их в материал. То есть нейронная сеть становится зрителем и помощником, а затем и со-творцом.
Добавлю только что видео скоро будет, а фото есть уже: https://www.facebook.com/futurefo/photos/?tab=album&album_id=313015845749621
Forbes выпустил интервью со спикерами нашей конференции Future Foundation Technology Ethics
http://www.forbes.ru/tekhnologii-video/331263-kakie-tekhnologicheskie-proryvy-proizoidut-k-2020-godu
Подумалось тут, что в контексте новости о ребенке от трех родителей выражение "с миру по нитке" получает гораздо более буквальный смысл.
Читать полностью…Про искусственный интеллект от Стивена Хокинга.
В принципе, все давно извнстное и понятное. Но теперь из уст мирового ученого. В лекции он говорит и о сильных плюсах AI, но в заголовок пишут то, на что больше трафика придёт.
Одна из тем, которая вскользь упоминается - ИИ повлияет на видовое разнообразие человека. Это такой сильный вызов эволюции, человеку придется изменить себя, чтобы уживаться с новой реальностью и конкурентом за ресурсы (хотя вообще-то многие считают, что мы будет не конкурировать с ИИ, а сотрудничать в форме киборгизации). Еще в статье есть очень простой и грубый таймлайн искусственного интеллекта.
http://www.telegraph.co.uk/technology/2016/10/19/stephen-hawking-says-artificial-intelligence-could-be-humanitys/
В силу частотных характеристик сигнал довольно быстро затухает, и для разных устройств количество искажений разное. Скажем, андроидные устройства страдают чуть меньше айфонов, так как они реже используют геолокацию по GPS. Обычно данные о GPS они получают по wifi и триангуляции базовых станций. Но, безусловно, проблемы при навигации это создает всем. Страдают пользователи всех приложений с навигацией, страдает качество прогнозов и пробок. У всех поставщиков информации о заторах в районе Кремля регулярно образуется некоторая каша.
Что можно сделать, чтобы временно не страдать? Если у вас Андроид — выключить GPS. Если у вас iOS — смириться. Если у вас дрон от известных производителей — летать в других местах.
Спасибо Григорию Бакунову за анализ.
Вообще, глобальная связность и стандарты дает возможность для таких актов "групповой подмены информации". Это же показывает, почему сетевые структуры связность по типу блокчейна лучше иерархических структур свзязности по типу GPS: в случае распределенного хранения информации такое невозможно.
И еще одно мероприятие от партнеров. В этот раз ФРИИ.
До 23:59 по московскому времени 18 октября ФРИИ набирает ИТ-стартапы в области искусственного интеллекта, bigdata и машинного обучения в отраслевой трек 11-го Акселератора.
Обещают за 3 месяца при помощи экспертов превратить стартап в масштабируемый бизнес. И ФРИИ даст pre-seed инвестиции, а также поспособствует реализации следующих раундов инвестиций от ангелов и фондов.
Телеком-операторы и Департамент транспорта Москвы готовы предоставить стартапам ФРИИ доступ к обезличенным данным для тестирования своих алгоритмов и доработки решений.
http://www.iidf.ru/startups/accelerator/bigdata/
Информация от наших партнеров: 21-23 октября в Иннополисе пройдет уже третий хакатон хакатон по Машинному Обучению и Нейроинтерфейсам Neurohack 3.0.
Можно будет проверить гипотезы, найти команду, показать результаты отраслевым экспертам, инвесторам, фондам и унести с собой ценные подарки от корпоративных партнеров - вроде обещают 10 призов на 15 команд)
Зовут программистов (машинное обучения, deeplearning), учёных в области yеврологии, нейрореабилитации и высшей нервной деятельности, а также предпринимателей и маркетологов.
http://sci-guide.com/neurohack3/
В продолжении темы о конкруренции с ИИ. Про беспилотные авто. Но на самом деле шире, не только про них, а вообще про новые технологии. Влияние новых технологий на дело жизни конкретного человека. Интересно, спокойно, рассудительно.
https://theidealist.ru/futureautomechanic
Отличная песня про CRISPR, кейс к популяризации науки.
С 2:36 показаны основные вехи в развитии технологиb
https://youtu.be/k99bMtg4zRk
С развитием биотехнологий может остро встать проблема идентификации личности, а не тела. Ну правда, если тело в большинстве своем можно изменить, заменить некоторые его части на более совершенные биопротезы, как точно идентифицировать личность, а не тело? Исследователи предлагают различные способы замены классических паролей на более продвинутые — аутентификацию по отпечатку пальца, форме ушной раковины или по походке. Как понять в информационном пространстве, кто скрывается под аватаром твоего друга или подруги? Так вот, в этом направлении тоже ведётся работа ученых. Например, аутентификация по мозговым импульсам. Но и тут столкнулись с ситуацией конфиденциальности. К примеру, при таком способе аутентификации устройствам смогут стать доступны слишком конфиденциальные данные о пользователе. По мозговым импульсам можно определить состояние здоровья, личностные качества, эмоции, факт употребления наркотиков и многое другое. Развитие технологий, вторгающихся во внутренний мир человека, и их внедрение связывают с такими большими рисками, что старые добрые пароли могут показаться куда более безопасными.
http://www.digitaltrends.com/cool-tech/cybersecurity-brain-wave-passcodes/
Все уже видели мир vr-будущего от Марка? Круто. Facebook собирается быть держателем не только нашего коммуникационного пространства, но и пространства действия. Это важно, запомним этот момент.
https://www.facebook.com/zuck/videos/vb.4/10103154531425531
Завтра буду говорить про "темную материю образования"
"Задача данной встречи клуба описать фантастические концепты, зафиксировав своеобразную "тёмную материю", которая способна оказывать влияние на образовательные практики, но не видна и непонята. Насколько обитаема та реальность образования, которая оказалась под крылом "чёрного лебедя" — это вопрос, который мы хотим поставить в рамках обсуждения"
https://www.facebook.com/events/160738021045440/
Футуролог, исследователь глобальных рисков и искусствовед, а также просто мой друг Алексей Турчин
написал о нашей дискуссионной панели на форуме "Открытые инновации" "Творчество машин: стоит ли людям опасаться конкуренции". За что ему спасибо. Копирую текст:
Говорили на Открытых инновациях с Елизаветой Плавинской, Петром Левичем и другими о том, что машины научились подражать человека в некоторых областях искусства, и должно ли это пугать художников. Я говорил, что пока что ничего особенного не произошло, и не произойдет, пока не появится сверхинтеллект. Далее тезисы нашей дискусси:
1. Картина художника - это высказывание в рамках определенной последовательности высказываний, поэтому стиль мало скопировать. Есть еще сюжет, тема, композиция. Стилизация - то есть подражание нескольким внешним приемам стиля, без подражания более мелким деталям стиля и без понимания смысла того, что делалось и зачем - была основным приемом в архитектуре эклектики в 19 веке, и ни к чему хорошему это не вело.
2. Когда у машины будет личность и набор задач - она будет полноценным творцом, пока что это ближе к фильтру в фотошопе.
3. Сходство в глазах зрителя. Проблема фальшака. Фальшики потом становятся видны, так как зритель меняется.
4. Человек, который управляет машиной и отбирает работы - и есть художник. Большинство арт объектов, которые создали нейронные сети, были созданы под контролем человека, который обучал нейронную сеть, затем контролировал ее работу, и отбирал из тысяч сделанных вариантов самый прикольный. Художник -это фотограф, а не фотоаппарат.
5 В принципе еще есть такая книга "Произведение искусства в эпоху его технической вопроизводимости”, Вальтера Беньямина - но она про фотографию, но при этом проблематика похожая. То есть все эти проблемы начали решать еще в 19 веке, когда стали фотографии делать. И в результате искусство освободилось от необходимости изображать предметы как есть, и художники получили огромную свободу не быть похожими. Возник импрессионизм, абстракция, далее по списку.
6. основная проблема художников - это вовсе не то, что их заменят роботы, а конкуренция со стороны других художников. То есть их работы не покупают, а чьи-то покупают.
7. Самоподражание и стилизация под других художников собственно всегда и была основной развития истории искусства. Люди только и делают, что копируют себя и других, и очень редко в этом процессе производят что-то новое. Поэтому успехи нейронной в сети в копировании не страшны. Вот если она начнет создавать новое искусство, то это будет серьезно.
8. Произведение искусство является высказыванием, произнесенным с определенной целью. Картину можно рисовать для собственного развлечения, а портрет, чтобы продать или прославить правителя. Пока машины не являются агентами, у них нет своих целей. Но представим такую ситуацию: сильный ИИ заперт в компьютере, но ему нужно убедить оператора его выпустить. (AI boxing experiment). И тогда он создает портрет прекрасной женщины, и убеждает заставляет оператора в нее влюбиться. То есть тут ИИ будет создавать искусство с определенной целью.
9. ИИ может создать и сверхчеловеческое искусство - которое будет просто лучше того, что делают люди. И даже более человечным. Но это когда появится сверхчеловеческий ИИ.
10. Лиза: проблема роботизации людей, которых натаскивают в рамках программы академического образования. И потом они не могут от этой роботизации избавиться, чтобы вернуться к живому творчеству. Поэтому творчество самоучек живее.
11. Лиза: на самом деле художники рады сотрудничеству с роботами, им все новое интересно.
12. Проблема художника не в том, что он что-то не может сделать, а в том, что ему не хвататет зрителя. особенно это актуально для времязатратных форм - никто не читает чьи-то толстые романы, но и скартинами та же фигня - у людей нет времени вдумываться и вчувствоваться в чужие картины. А у нейронной сети есть.
Кто будет на форуме "Открытые инновации": 26 октября в 15:00 будем говорить о творчестве машин и месте художников, творцов в мире с ИИ.
Говорим с футурологом и искусствоведом Алексеем Турчиным, искусствоведом Елизаветой Плавинской, художником Ростаном Тавасиевым, руководителем LABORATORIA Art&Science Space Дарьей Пархоменко и хореографом Анной Абалихиной.
Технология глубокого обучения нейронных сетей развивается стремительно. Компьютер уже копирует индивидуальные стили художников, поэтов, музыкантов. Не нужно ли нам переосмыслить понятия «искусства», «творчества», «гениальности»? Есть ли у человеческого вида монополия на творчество?
В то же самое время, технологии дают новые возможности, о которых реформаторы авангарда могли только мечтать: в распоряжении художников, режиссеров и хореографов в XXI веке существует невероятное количество «deus ex machina» для воплощения самых смелых идей.
Несколько ссылок по теме, показывающих успехи нейронных сетей:
- нейросети скопировали стиль Егора Летова http://apparat.cc/news/neurodefence/ (тест Тьюринга на Медузе показал 60 процентное неугадывание людьми авторства)
- копирование стиля художника: http://arxiv.org/pdf/1508.06576v1.pdf
- копирование стиля до степени неразличимости: https://www.fastcodesign.com/3058708/a-computer-paints-a-rembrandt-and-it-looks-just-like-the-real-thing
- нейросеть скомпановала песню в стиле Битлов: http://boingboing.net/2016/09/20/a-song-composed-by-artificial.html
Связь блокчейна и экономики пользования (как замены экономики потребления).
Еще 50 лет назад в романе «Убик» Филип К. Дик описал умный дом, в котором нужно платить за использование любого предмета. Главный герой не может выйти из квартиры, так как у него нет 5 центов, чтобы заплатить входной двери.
Пример из сегодняшнего дня: немецкий стартап Slock it, создает умные замки на базе блокчейн-системы Ethereum. Владелец жилья устанавливает размер арендной платы, квартиросъемщик переводит деньги мобильным платежом. Замок на двери оснащен мини-компьютером, подключенным к сети. Он знает, когда можно пускать нового жильца, и срабатывает, только если все условия аренды соблюдены.
Позитивный сценарий: блокчейн демократизирует экономику совместного потребления, а пользоваться смарт-контрактами и умными платформами сможет практически каждый. Люди будут сами иметь доступ ко всем плодам своего труда, а не работать на благо инвесторов. Однако новая фаза экономики совместного потребления может как избавить человечество от неравенства, так и, наоборот, усилить разрыв между слоями общества. Но это уже политический, а не технологический вопрос.
Негативный - описан в статье.
https://hightech.fm/2016/10/18/new_capitalism
NBC собирается снять сериал-триллер C.R.I.S.P.R. Сюжет будет построен на негативных применениях этой (и смежных) технологий: генетическая атака на президента (это дословно, не очень понятно, что имеется в виду, ну можно предположить, что распыление какого-то вируса, специфического к ДНК конкретного человека), юридическое преследование еще нерожденного ребенка за убийство (тоже дословно, можно только фантазировать как это будет). Похоже на Черное Зеркало, только оно больше про IT и роботов, а это про биотех будет.
Хочу отметить, насколько быстро массовая культура реагирует на технологические новости и на коллетивные опасения людей относительно этих новостей.
А, ну еще там будет Дженифер Лопез, но это, конечно, не самое важное в новости.
Кстати, интересный факт. Шоу называается именно "C.R.I.S.P.R.". Так вот, точки в таких случаях ставят чтобы не иметь проблемы с патентами, которые в случае с криспром стоят астрономические деньги. по той же причине, кстати, известная игра называется S.T.A.L.K.E.R.
http://www.hollywoodreporter.com/live-feed/jennifer-lopez-sets-futuristic-bio-939509
Кстати, у меня с этим тоже связан случай:
Когда уезжал на Убере с Форума Стратегических инициатив в ВДНХ, в день, когда туда Путин приезжал, тоже у меня и у водителя навигатор определялся в Шереметьево. Кстати, из-за этого Убер потом мне выставил счет как за поездку из Шереметьево, пришлось им писать и объяснять ситуацию - вернули деньги.
Вот маршрут той поездки по мнению убера) оцените идеально прямую линию от Шереметьево до ВДНХ. Видимо, я на самолете летел)
Почему Кремль во Внуково
Сегодняшнее утро я потратил на то, чтобы разобраться в странной и неприятной ситуации с GPS в Москве. В районе Кремля (и некоторых других) иногда возникают аномалии, которые заставляют все устройства с GPS думать, что они во Внуково. Аномалии эти возникают с июня и появляются без какой-либо системы. Есть простое объяснение: это спуфинг (попросту подмена) GPS. О гипотезах "зачем" мы поговорим чуть позднее. Дисклеймер: я не профессионал ни в GPS, ни в спуфинге, ни в журналистике, но я регулярно страдаю от сломанного сигнала GPS. Так как об этом все еще не написали профессионалы и мобильные аналитики, мне пришлось попытаться разобраться в происходящем самому.
Что я, собственно, сделал: я взял с собой несколько разных GPS и GLONASS приемников, анализатор частот и с этим рюкзаком приборов залез на сигвей. Результаты исследования относятся только к одной области — Кремлю, и только к этому конкретному отрезку времени — с 9 до 12 утра. Кстати, 3 часа рассекать по городу на сигвее при температуре порядка 2 градусов цельсия — то еще удовольствие.
Следующим постом будет картинка, на ней красные области - зона покрытия "ложным" сигналом (чем краснее — тем сильнее сигнал), синим — замеры на направление источника сигнала, а желтая звездочка - моя гипотеза о том, где же именно в момент замеров находился источник.
Вот что я выяснил: где-то внутри Кремля стоит (а возможно и передвигается) мощный передатчик. Он имитирует работу GPS и GLONASS спутника на частотах L1 и шумит на частотах L2 и L5. Частота L1 — это "гражданский" диапазон для GPS, именно он и используется большинством бытовых устройств для точной геолокации. Подробности о GPS читайте в Википедии.
Чтобы обмануть GPS на этой частоте, нужно имитировать работу спутника, выдавая его время и положение в пространстве. Хакеры научились этому довольно давно. Есть даже готовые программно-аппаратные комплексы от именитых фирм, позволяющие манипулировать приемниками. Скорее всего один из таких комплексов сейчас и используется. Предполагаю, что поставщик устройства — ni.com, их решение сейчас самое целостное и по АЧХ очень похоже.
Обратите внимание, зона покрытия передатчика очень некруглая. Обычно это значит, что часть сигнала отражается и перекрывается зданиями вокруг. В силу этого "пятно зшумления" простирается от Солянки до ХХС и от Охотного ряда до Овчинниковской набережной.
Я также пытался понять более точное расположение источника сигнала. Очевидно, что это не спутник :) Точное расположение передатчика конечно же не было моей целью, но на картинке хорошо видно, где его можно поискать
Интересно то, что подмененный сигнал "пересылает" в центр аэропорта Внуково. Можно придумать много конспиративных теорий, почему именно туда. Самая популярная среди меня версия — борьба с видео-дронами DJI и им подобными. Во всех современных серийных дронах есть GPS и карта зон, где полеты запрещены. К таким зонам относятся все аэропорты мира. Не совсем понятно, зачем кому-то бороться с дронами подменяя GPS, а не просто потребовав внести нужные зоны в запретные, но это не совсем наше дело, конечно.
Другая теория — использование дефолтных значений. Готовые аппаратно-программные комплексы для спуфинга GPS требуют указать координаты, чтобы отображать их вместо реальных данных. Эти координаты можно ввести напрямую или выбрать из списка предложенных производителем устройства. Так сложилось, что в этих списках для России значатся только центры крупных городов и Аэропорты. Как вы понимаете, Внуково - первый по алфавиту аэропорт в районе Москвы. И в эту версию я тоже верю, конечно.
Еще одна загадка — почему подмена сигнала то включается, то выключается. Ответа у меня нет, единственное, что я могу придумать — систему еще только разрабатывают и внедряют. Или есть какие-то события, которые инициируют временное включение "глушилки".
Итого: где-то в районе Кремля установлено стационарное или передвижное устройство, задача которого - иногда не давать адекватно работать всем системам позиционирования для гражданских.
Хорошая статья, описывающая применения машинного обучения. Наверное, большинство из этого мы все знаем. Но, во-первых, не все очевидны - какие-то на слуху, какие-то нет, но от этого они не менее важны, им может быть именно незаметные применения изменят нашу жизнь сильнее всего. А во-вторых, когда они так собраны в одном месте, становится ясно, насколько наша повседневная жизнь уже построена на таких алгоритмах, и как это влияние усилится в будущем. Я бы добавил, что объединение пунктов 4, 5, 7, 8 и 9 в будущем дадут персональные искусственные помощники, которые в еще недалеком будущем сделают нас "цифровыми кентаврами" (да, люблю это термин) при физическом соединении с нашим биологическим мозгом через нейро-компьютерный интерфейс. И это круто. Есть и подводные камни вроде зависимости от качества работы таких систем и их взломоустойчивости. Тут, кстати, может помочь пункт 1 и 6.
1. Кибербезопасность.
Паттерны вирусов хорошо отлавливаются машинным обучением.
2. Личная безопасность.
Сократить очереди на досмотр, например, в аэропортах за счет машинного анализа поведения людей - проверять только тех, кого вероятнее стоит проверить. Хотя тут вспоминается история с программой, которая вычислял террористов в Пакистане по профилю мобильной связи. И не особо хорошо справлялась, но там была история в сторону слишком слабых улсовий - слишком многих признала террористами. В случае с безопасностью перекос в эту сторону не так страшен. Но я думаю это очень психологически сложная вещь - доверить свою безопасность нейросетке - не готовы люди к этому пока что.
3. Трейдинг.
Ну тут понятно, ИИ уже сидит на равных правах в совете директоров инвестфонда, известный кейс.
4. Здравоохранение.
Тоже понятно, IBM Watson, который диагностирует рак - уже даже кейс из прошлого, сейчас нажежда на развитие систем полного цикла наблюдения за здоровьем, в применением wearables (а в будущем internables)
5. Персонализация маркетинга.
Тоже понятно. Есть известный пример, как робот таргетированноц рекламы выдала девушке рекламу товаров для ребенка, хотя она не знала, что беременна. Оказалось беременна. Точно не известно, но вроде как машина поняла это на основе комплекса показателей вроде профиля покупок продуктов в супермаркете.
6. Борьба с мошенничеством.
Оказывается, PayPal уже использует машинное обучения для обнаружения подозрительных операций.
7. Рекомендации.
Ну на самом деле, как мне кажется, это копия пункта 5, не знаю, зачем в статье разнесли.
8. Поиск в интернете.
Ну тут понятно все. Если не знали - поисковые машины учатся на нас же. Если на первой ссылке человек провел много времени, значит дальше поиск будет ее ставить первой чаще.
9. Natural Language Processing (NLP)
Работа с естественным языком. Перевод, продуцирование, понимание.
10. Беспилотники.
Тоже понятно и ожидаемо.
http://www.forbes.com/sites/bernardmarr/2016/09/30/what-are-the-top-10-use-cases-for-machine-learning-and-ai/
А все ведь уже "поиграли" в "игру" от MIT?
Рай для любителей проблем вагонетки.
Игра в формате теста состоит из 13 ситуаций, в каждой из которых у самоуправляемой машины есть два варианта действий – убить первую группу людей (или животных) или вторую. Группы потенциальных жертв ДТП вариативны – они могут состоять из пассажиров и пешеходов, детей и взрослых, мужчин и женщин, бездомных и воров, страдающих ожирением, пожилых и других социальных групп.
Можно создавать и свои ситуации.
Вообще, это хороший шаг к кодификации этики. Позже ИИ будут обучаться ей в мирах виртуальной реальности - это удобно, так как язык коммуникации объектов там - компьютерный код - общий для ИИ-агентов и аватар-агентов этой среды. А пока приходится вот так учить эти нейросетки.
Ну и напоследок текст с самого сайта игры:
От беспилотного вождения автомобиля на дорогах общего пользования до автономной посадки многоразовых ракет на беспилотные плавучие платформы: машинному интеллекту делегируют все более сложную деятельность человека. И автономия машинного интеллекта в этих сложных функциях может привести к ситуации, когда им приходится самостоятельно совершать выборы с участием человеческой жизни. Это требует не только более четкого понимания того, как люди делают такой выбор, но и более четкое понимания нашего восприятия машинного интеллекта, делающего такой выбор.
http://moralmachine.mit.edu/
Президент Барак Обама в интервью изданию Wired обратил внимание на то, что развитие искусственного интеллекта может усугубить проблему социального неравенства и уменьшить средний уровень зарплаты. Предлагает просчитать и нивелировать подобные негативные последствия.
https://hightech.fm/2016/10/13/obama-white-house-ai-funding-research-plan
Замечательное.
В центре внимания должны быть предметы, с которыми машины еще долгое время не смогут справляться достаточно хорошо. В то же время, нет смысла обучать школьников навыкам, которые никому не будут нужны через 10-20 лет.
«Научная фантастика постепенно превращается в научный факт, и ИИ будет играть все большую роль в нашей жизни в ближайшие десятилетия», — отметила Таня Матиас, одна из председательниц комитета. По ее мнению, современное школьное расписание не отвечает требованиям четвертой промышленной революции.
https://hightech.fm/2016/10/12/education_ai
Из обсуждения с коллегами, атмосферное:
Собрались седобородые старцы на народном вече вокруг костра... и запретили редактировать геном человека
Коллеги, 24 октября в Санкт-Петербурге в рамках Международной школы социологии науки и техники им. С.А. Кугеля я делаю воркшоп "Этические вопросы новых технологий: где-то между утопией и антиутопией".
Если вы студент бакалавриата или магистратуры, аспирант, молодой ученый - вы можете подать заявку на школу и принять участие в воркшопе (для этого в анкете нужно поставить галочку в соответствующем блоке). Дедлайн подачи заявок - 16 октября, так что поторопитесь. Разумеется, все бесплатно. Вот ссылка: https://docs.google.com/forms/d/e/1FAIpQLScCQlEB2myalx7YTvtiwWviO5oCIy0xQ9QtSB5shOSbupJKMg/viewform?c=0&w=1
А вот описание воркшопа:
Мы находимся в эпоху стремительного развития технологий. Не все из них нам привычны, а какие-то и вовсе пугают часть общества. Как следствие, технологии запрещаются, прогресс замедляется. Хорошо ли это? Как быть с этическими границами общества?
С другой стороны, некоторые применения технологий и правда могут повредить обществу. Усилить тоталитарные режимы новыми инструментами контроля или оказаться слишком сильной "игрушкой" в руках маргинальных групп.
Где граница между запретом технологий и бесконтрольным развитием?
Ответственность за выборы пути в этих развилках человечеству придется взять на себя, остаться в стороне не получится.
Предполагается несколько форматов групповой работы: свободная дискуссия, игровые форматы (расстановки, форсайт-методики и т.д.), модерируемая дискуссия, работа в подгруппах.
Кстати, партнерами школы выступает Московский технологический институт и Future Foundation.
Недавно Google выпустил девайс Google Home. Это стильный настольный микрофон, подключенный к интернету, который всегда готов отозваться на ваше "Ok, Google" и выполнить какие-то инструкции - пока что как Google Now, в будущем - и управлять умным домом.
Статья про то, что это приведет к смерти privacy, мол, девайс может слушать все ваши разговоры в доме, все что вы смотрите по телевизору и так далее. Google, конечно, говорит, что микрофон слушает только начиная с фразы "Ok, Google". И может быть даже так и есть. Прагматически нет в этом ничего нового - телефон тоже может вас слушать, и с ним вы проводите даже больше времени, чем дома рядом с таким новым микрофоном.
Другое дело, и это интереснее всего, как мы - "прогрессивное либеральное общество" - реагируем на сообщения о том, что ФСБ/АНБ/ФБР (нужное подчеркнуть) хотят читать нашу переписку и слушать наши телефоны а сравнении с тем, как реагируем на сообщения о том, что появился очередной девайс, который может нас слушать в пользу корпорации. Интересно здесь то, что, по-видимому, мы гораздо проще примем "Большого Брата" в виде корпораций, чем в виде государства. Патернализм корпораций даже в массовой культуре закреплен скорее положительно (реклама компаний "мы заботимся о вас" работает), в то время как партернализм государства для многих людей неприятен. Понятна и причина такой разницы - госдарства за долгую историю "наломали дров" с использованием собранной информации - ведь цель такого сбора - как правило наказание. А представим, что государства бы следили за нами ради помощи - прослушивали бы телефон не "плохого парня", а "хорошего", чтобы, например, полиция быстро выехала, если слышит в микрофоне телефона крики о помощи. Фантастика? Пожалуй, но важнее то, что даже если какое-то государство станет такое декларировать, мы ему скорее всего не поверим - кредит доверия исчерпан. В то же время кредит доверия корпорациям, напротив, растет - мы можем риторически посетовать, что таргетированная реклама слишком таргетированная, но в итоге все равно купим новый домашний микрофон Google.
Пока без вывода, просто размышления.
http://www.computerworld.com/article/3128791/data-privacy/how-google-homes-always-on-will-affect-privacy.html
Вышла статья по нашей дискуссионной панели "Будущее ума и технологии" на конференции "Ясный ум".
"Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру."
Статья проиллюстрированна как раз вышепоказанными картинками.
Беседовали c Андреем Константиновым, Константином Фрумкиным, Михаилом Бурцевым, Алексеем Турчиным, Александром Тхостовым. Да, и спасибо Павлу Лукше, что тогда пригласил, а Андрею Константинову, что написал статью.
http://kot.sh/statya/2433/um-i-mashiny