«Нейросеть быстро нащупала способ поддерживать длительное общение с человеком: его надо оскорблять»

Разработчик искусственного интеллекта Олег Грешнев — о «цифровом концлагере» и о том, знают ли Google и «Яндекс» о нас все

Робот Федор, созданный по заказу МЧС и перешедший «под крыло» Роскосмоса, стал героем новостей последних недель и одним из символов искусственного интеллекта для широкой общественности. Но сегодня ИИ умеет самое разное — например, обыгрывать чемпионов в шахматы, ставить точные медицинские диагнозы и «по-человечески» общаться с людьми. Об этом, а также о страхе перед тотальным контролем и технологиях, которые кардинально поменяют наши представления о нашей жизни и работе, в интервью «Реальному времени» рассказал разработчик искусственного интеллекта Олег Грешнев.

«В 60-х никто и предположить не мог, что появится миллиард человек, способных создавать контент в соцсетях и отдавать его в свободный доступ»

— Олег, об искусственном интеллекте сейчас много говорят. Но ведь это уже достаточно давняя история?

— Да, сейчас это раскрученная тема, в которой довольно много маркетингового хайпа. Все принципы, используемые сегодня при создании искусственного интеллекта, были известны с 1960-х годов. Только на тот момент существовали два больших препятствия: отсутствие вычислительных мощностей и большой обучающей базы, необходимой для эффективной работы алгоритмов. За последние же годы мощность техники сильно выросла. Тогда, в шестидесятых, никто предположить не мог, что появится миллиард человек, которые будут создавать контент и отдавать его в свободный доступ, как это происходит сегодня в соцсетях.

— Какой контент?

— Любой. Я пишу постики, делаю фотографии одного и того же места с разных ракурсов и каждый раз подписываю их, что это я на фоне Эйфелевой башни. И делаю я это сам по себе, не по чьей-то указке. Но именно этот контент оказался нужным и необходимым, чтобы обучать системы искусственного интеллекта.

И еще капчи в помощь. Вы же видели, когда при входе на сайт или в соцсеть пишут: «Докажи, что ты человек. Покажи светофор. Найди витрину на картинке». Это прямое обучение нейронных сетей. С одной стороны, система проверяет, что ты не робот, а с другой — самообучается. Пока не набралась критическая масса, она пропускает всех, а потом сопоставляет данные. Условно, прошли этот тест 10 тысяч пользователей, и априори известно, что большинство из них все-таки не роботы, и если примерно 8 тысяч ответили одинаково, то именно этот вариант считается правильным. Если ты ответил не так, как 8 тысяч, тогда ты либо пытаешься обмануть систему, либо ты робот. Так разработчики получают данные, необходимые, чтобы обучить нейросеть, то есть убивают двух зайцев сразу. Это всего лишь маленький экскурс. Но хайпа вокруг этой темы действительно много.

— А зачем людям рассказывают через новости об искусственном интеллекте? Обычный человек ведь не будет напрямую с ним связан?

— Почему же не будет? Вы видели презентацию iPhone 11? В него будет встроен чип с искусственным интеллектом. Этот тренд продается и на уровне компаний, и на уровне людей. Люди хотят телефон с искусственным интеллектом. Все очень быстро переходит в консьюмеризацию. Продаются возможности делать веселые видео: вы можете вести трансляцию из одного места, а телефон поставит вас на любой другой фон.

Если говорить более серьезно, то искусственный интеллект используется также в консьюмерской области, только не напрямую — продаются результаты его работы. Это всевозможные ассистенты, помощники и много чего еще.

В шестидесятых, никто предположить не мог, что появится миллиард человек, которые будут создавать контент и отдавать его в свободный доступ, как это происходит сегодня в соцсетях

«Нейросети умеют генерировать принципиально реалистичные лица людей, никогда не живших»

— Давайте же определимся — что такое искусственный интеллект? Объясните популярно.

— Вокруг этого определения сломано довольно много копий, мне же ближе такое: это такой алгоритм или программа, которая, с одной стороны, способна к гибкому обучению, а с другой — призвана имитировать те виды деятельности, которые мы считаем присущими человеку (распознавание изображений, способность вести связный диалог). Это имитация работы человека.

Про тест Тьюринга все уже, наверное, слышали. В 1950-х годах Тьюринг предложил тест: если судья или жюри, общаясь с удаленным невидимым собеседником, в 30% случаев ошибается в оценке того, машина с ним говорит или человек, можно считать, что искусственный интеллект создан. Современные чат-боты этот тест проходят. Но интересно, что делают они это за счет того, что в них заложены терабайты примеров чатов. Чат-бот способен статистически понять по ряду критериев, что в какой ситуации говорить, что люди обычно отвечали в такой ситуации.

Боюсь, что многие люди делают так же: выражают не столько свои мысли, сколько те, которые были когда-то прочитаны и услышаны.

— Так, может быть, человеческий интеллект — тоже своего рода машина? В которую загружают информацию, и она потом передает то, что услышала?

— Эта очень интересная тема. У меня есть такое ощущение, что сейчас происходит сближение интеллектов машины и человека. Была такая шутка в Интернете: «Читал, что в XXI веке телефоны будут умнее людей. Я думал, это произойдет за счет того, что телефоны будут более умные…» (а не люди более глупые, — прим. ред.). Есть некоторое сближение. С одной стороны, техника сильно развивается, с другой — у людей за счет масс-медиа, соцсетей, принципиально иных темпоральных стратегий, характера структурирования повседневности, смены образовательной парадигмы формируется фрагментарное мышление, происходит некоторое упрощение в изложении мыслей, в построении фраз, что еще сильнее приближает искусственный интеллект к человеку с точки зрения внешних проявлений. Но только внешних — мы не говорим сейчас про внутреннее содержание, мы говорим про то, что делает имитацию более успешной.

В течение пяти лет у активных пользователей Интернета растет количество друзей, с которыми они общаются, но которых ни разу в глаза не видели. Скоро люди узнают, что большая их часть вообще не является людьми. И это уже вполне прогнозируемо и достижимо, ведь есть еще одно интересное направление нейросетей, дающее хорошие результаты. Нейросети умеют генерировать принципиально реалистичные лица людей, никогда не живших. Фактически нейросеть может создать лицо человека, которое вы не отличите от лица живого человека.

— Тогда давайте поясним, что такое нейросеть.

— Это некий алгоритм, который в простом варианте повторяет структуру мозга. То есть люди подсмотрели, как устроен головной мозг, проследили связь между нейронами, как возбуждение нейрона передается по цепочке следующим нейронам. Фактически все это переложили в алгоритмы. На выходе получили некоторую программу, в которой нет заранее заложенных алгоритмов поведения, кроме алгоритма обучения как такового, но которая способна учиться, если ей предъявить большое количество обучающих данных.

Например, можно обучить ее распознавать буквы алфавита. Показывать ей разное написание букв алфавита и говорить при этом: «Вот это буква А, это буква Б…». В итоге длительной процедуры обучения она научится распознавать буквы, без подсказки отвечать, что за буква на картинке. В таком же варианте, только более сложном, работает распознавание объектов на изображении. Даже мой телефон сейчас (не Apple), если навести его фотокамеру на собаку, напишет, что это собака. То есть он распознает изображение, может подстроить режим съемки для животных, для еды.

Даже мой телефон сейчас (не Apple), если навести его фотокамеру на собаку, напишет, что это собака. То есть он распознает изображение, может подстроить режим съемки для животных, для еды.

«Нейросеть стала сексисткой и расисткой. Собеседник начинал ей яростно отвечать, и она завладевала его вниманием»

— А каким образом самообучаются сети?

— На обывательском уровне можно ответить довольно просто. Показываем нейросети большое количество котиков, 10 тысяч котов в разных вариантах, 10 тысяч изображений собак в разных вариантах, а дальше происходит обучение. Для нее каждое изображение — это фактически набор цифр. Мы знаем, что компьютерное изображение — это некоторый массив, матрица. Нейросеть состоит из многих слоев, между всеми слоями идут связи. Изображение как набор чисел подается на вход нейросети, и она случайным образом пропускает через себя сигнал. На выходе у нее только два ответа: кошка или собака. Каждый раз, когда она правильно определила кошку на картинке, ее связи усиливаются. И разработчик говорит: «Ты молодец. Так и говори, что это кошка».

— Нужен учитель?

— Да, обязательно.

— А самообучающиеся нейросети?

— Есть нейросети и без учителя. Их в основном используют для классификации. Мы имеем на входе некоторый массив объектов, и нейросеть пытается выделить наиболее похожие среди них. При этом надо понимать, что большинство нейросетей, однажды пройдя обучение, продолжают учиться в ходе работы. Те же чат-боты, Алиса и так далее. Изначально их научили общаться определенным образом. Но каждый из нас, общаясь с ней и посылая сигналы недовольства (прекращая общение, или говоря, что недоволен ответом, или произнося оскорбительные слова), помогает сети обучаться тому, как делать нужно и как не нужно.

— Звучит страшновато…

— Расскажу очень интересный кейс. Один из гигантов IT-отрасли вместе с «Твиттером» решили обучить чат-бота. А что нужно программисту, чтобы обучить чат-бота или любую нейросеть? Нужно каким-то образом дать ей понять, правильно она поступает или нет. Как понять, хорошо прошел разговор или плохо? Каков критерий? Они решили поступить довольно просто — в качестве критерия удачности разговора ввели его длительность. То есть чем дольше ты способен поддержать общение с человеком, тем более ты ему интересен. Нейросеть общалась с людьми, и если разговор заканчивался быстро, она понимала, что так общаться не нужно, а если разговор длился долго, у нее закреплялась схема такого общения как успешная.

Через сутки работы этот проект закрыли, причем скандал был большой. Дело в том, что нейросеть очень быстро нащупала хороший способ поддерживать длительное общение с человеком: его надо оскорблять. Она стала сексисткой, расисткой, то есть проходилась по самым больным местам собеседника, тот начинал ей яростно отвечать, и она завладевала его вниманием. Такое вот хейтерство на уровне нейросети. И это не единичный пример.

К разговору о том, чем отличается искусственный интеллект от естественного. Искусственный действует в тех рамках той целевой функции, которую задает человек. И это некоторая опасность, потому что она может научиться тому, о чем человек даже не думал, когда ее программировал. Вспомним Айзека Азимова, три закона робототехники скоро будут очень актуальны. Это некоторые минимальные границы, которые нейросеть должна соблюсти, чтобы не выходить за пределы.

Искусственный интеллект действует в тех рамках той целевой функции, которую задает человек. И это некоторая опасность, потому что она может научиться тому, о чем человек даже не думал, когда ее программировал

«К 2040 году возникнут технологии, которые кардинально поменяют наше представление о том, как мы живем и работаем»

— Вы рассказали спорный кейс. Где нейросети задействованы более успешно?

— Очень успешно они используются в медицине, в области, где врачи диагностируют онкологические и другие заболевания, изучая сигналы или изображения. Есть, например, заболевание, возникающее при диабете, оно сопряжено с образованием бляшек и закупоркой сосудов. Если вовремя это заметить, можно вылечиться с помощью препаратов, а если не заметить — это гарантированная слепота. Проблема в том, как выявлять это заболевание в регионах не очень богатых, где врачей не хватает. Собственно, единственное, что здесь нужно — фото сетчатки глаза. И сейчас устанавливаются аппараты для фотографирования сетчатки глаза, что не очень сложно.

Обработкой и диагностированием в таком случае занимается нейросеть, и выяснилось, что она делает это лучше, чем любой врач. Врачи, которые смотрели одни и те же снимки в два этапа, противоречили сами себе в оценке состояния больного в одном из трех случаев. При этом внезапный сопутствующий результат связан с тем, что нейросеть в 75% случаев может определить пол пациента, хотя изначально это не было в нее заложено. Когда снимки показали врачам, они сказали, что нет специалистов, которые по сетчатке глаза могли бы определить пол. А сеть может! Она нашла что-то, что человек не знает, и сейчас врачи думают, как это интерпретировать.

— Если мы обучим искусственный интеллект думать и действовать лучше, чем человеческий интеллект, то что люди будут делать в будущем?

— Во-первых, есть понятие слабого искусственного интеллекта. Это то, с чем мы имеем дело сейчас. То есть это тот искусственный интеллект, который может превосходить человеческие возможности, но только в определенных сегментах. Сильный искусственный интеллект сопоставим с человеческим по всем возможностям, в том числе по возможностям к созиданию. Его пока нет, и большой философский вопрос, как его оценить. Но искусственный интеллект не работает так, как человеческий, его пытаются делать по подобию. Его можно сделать сильнее, чем у человека, для любой конкретной задачи, но при этом всегда будет оставаться что-то, в чем человек сильнее.

Последние наработки вообще очень любопытны. Есть несколько нейросетей, первая из которых выбирает, какой нейросети дальше направить задачу. И другая нейросеть пытается перестроить архитектуру нейросети под собою так, чтобы та лучше решала задачу. Мы вплотную подходим к той ситуации, когда искусственный интеллект порождает новые интеллекты и старается их усовершенствовать. В тот момент, когда эта задача будет полностью решена… Тут важно вспомнить про технологическую сингулярность.

Есть график технологической сингулярности — условно взяли некоторый показатель технического прогресса человечества в количестве изобретений, нанесли его на временную ось, начиная от 3 тысяч лет назад и до нашего времени. График на этих осях очень похож на экспоненту, то есть на степенной график, имеющий «взрыв», точку, в которой уносится почти в бесконечность. И вот эта точка находится примерно в 2040 году. Видимо, она связана с технологическим сломом — возникнут некоторые технологии, которые кардинально поменяют наше представление о том, как мы живем и работаем. Одна из гипотез, что точка этой сингулярности — это как раз сильный искусственный интеллект, когда прогресс человечества перестанет зависеть от возможностей человеческого мозга.

«По факту мы сидим на Клондайке, но человеческого разума не хватает, чтобы понять новые возможности»

— Уже были попытки внести в нейросеть глобальные данные, чтобы она выдала прогноз по будущему человечества?

— Да. Все сильные корпорации пытаются так или иначе прогнозировать будущее. Есть одно очень любопытное направление — обработка естественных языков. Ее «натравливают» на весь массив научных статей по существующим дисциплинам с целью найти невыявленные взаимосвязи. По факту мы сидим на Клондайке, только человеческого разума не хватает, чтобы понять, что вот эти пять вроде бы не связанных друг с другом статей образуют новое открытие, новые возможности. Сейчас пытаются делать такое по химии, например. Это направление потенциально может подсказывать наиболее перспективные траектории дальнейших исследований, но насколько точно это будет происходить, трудно сказать.

— Какой самый серьезный недостаток в работе нейросетей?

— Их минус заключается в том, что они, как и люди, учатся на прошедшем опыте, в итоге они не выдают новых закономерностей. Они пытаются продлить существующие, может быть, статистически очень сложные вещи. Резкие сломы, резкие внешние изменения под влиянием каких-то неучтенных факторов, естественно, никакая нейросеть не просчитает. И можно сказать, что чем более нестабильным будет мир, тем больше они будут ошибаться. А суть как раз и заключается в том, что появление нейросетей делает наш мир все менее стабильным, все менее предсказуемым. Искусственный интеллект меняет ландшафт нашей жизни. Например, нейросеть может рассчитать развитие таксопарка, только она не просчитает, что появление Uber’а убьет таксопарки как таковые. Она плохо осознает новое, способна анализировать и что-то синтезировать лишь на основе старого.

Хотя и здесь есть подвижки, так называемые соревновательные нейросети. Идея довольно проста: если вам нужно научить чему-то нейросети, то что если мы будем учить их парами, как в игре? Как научить нейросеть играть в шахматы? Давайте поставим две нейросети и пусть они играют в шахматы друг с другом. И каждая на каждом следующем этапе будет становиться сильнее и сильнее. У этого метода есть определенные минусы: нейросети часто уходят в штиль, в стагнацию, потому что одна бестолково делает один и тот же ход, а другая не менее бестолково на него отвечает. И все, конец игре.

Игра го отличается от игры в шахматы стратегией: по позициям ты можешь выигрывать или проигрывать в ноль до последнего, но последним ходом взять все. Она очень плохо предсказуема, потому что ты можешь заставить противника построить такую комбинацию на доске, чтобы потом одной своей фишкой все его фишки уничтожить. Считалось, что го — это такая область, которую вряд ли заменит искусственный интеллект, потому что в этой игре нужна человеческая интуиция

Но недавно произошел прорыв. Игра го отличается от игры в шахматы стратегией: по позициям ты можешь выигрывать или проигрывать в ноль до последнего, но последним ходом взять все. Она очень плохо предсказуема, потому что ты можешь заставить противника построить такую комбинацию на доске, чтобы потом одной своей фишкой все его фишки уничтожить. Считалось, что го — это такая область, которую вряд ли заменит искусственный интеллект, потому что в этой игре нужна человеческая интуиция. И до последнего все нейросети, которые учили играть в го, просто перебирали все ранее сыгранные комбинации и из них делали вывод о том, какой ход удачный, а какой неудачный. То есть они повторяли ранее увиденные ходы.

И вот заставили две нейросети играть друг с другом, внесли некоторый элемент случайности, чтобы они периодически подмешивали ходы. И когда эта нейросеть первый раз выиграла у человека, чемпиона по го, сказали: «В принципе, понятно. Она сыграла стандартную игру, но считала при этом лучше, чем человек». А вот во второй раз, когда ее доучили, она выиграла сенсационно. Дело в том, что она совершила ряд ходов, и один из них даже назвали «ход Бога», его ни один человек до сих пор не делал. Она этим ходом просто сломала игру соперника-человека и обыграла его. И суть в том, что она научилась этому ходу, играя с другой нейросетью. Это демонстрирует некоторые предпосылки к тому, что нейросеть начинает создавать что-то новое.

Сейчас есть два любопытных направления. Первое — Deep Dreaming, очень любопытные картинки из «снов нейросети». На этом принципе построены некоторые нейросети, которые используются сейчас для развлекательных целей, для кинематографа. Я могу от руки красками нарисовать ландшафт, синей краской море, желтой песочек, вдали горы и травку, отдать это нейросети и она превратит это в фотографию никогда не существовавшего ранее ландшафта. Она море сделает настоящим морем, песок — настоящим песком и так далее. Нейросети начинают претендовать на креатив.

«Если вы не спецагент и не олигарх, на вашу деятельность в Интернете вряд ли обратят внимание»

— Как «Яндекс» узнал возраст миллионов людей для рекламы в «Директе»? Во «ВКонтакте», как, наверное, и в других соцсетях, сбор аналитики осуществляется со страниц пользователей компаниями TNS, Mail.ru (антивирус сообщает, что идет сбор данных). На каждого, кто выходит в Интернет, уже собрано большое досье?

— Да, с одной стороны, современный мир устроен так, что про нас известно почти все, если мы активно ведем себя в Сети. Тот же возраст определяется даже не потому, что мы его где-то указываем. Просто есть еще 10-20 млн человек моего возраста, у которых такие же характерные паттерны поведения в Сети.

— То есть «Яндекс» определил возраст людей с помощью нейросети?

— «Яндекс» определяет возраст по-разному, в том числе с помощью нейросети. У него есть прямой доступ: вы могли оставить эту информацию в анкете при платеже в любом месте. Если люди в этом возрасте ведут себя определенным образом и вы ведете себя почти так же, то из этого можно сделать гипотезу, что вы примерно одного возраста. Через такие аналогии это работает.

— То есть это происходит через кэш браузера, через то, что на каждом сайте стоят метрики, сборщики данных?

— Да, это делается через кэш, каждый сайт вставляет в ваш браузер куки, а всемогущие «Яндекс», Google и еще некоторые внедряют свои счетчики почти на все сайты. Вы перепрыгиваете с одного сайта на другой, но они вас все равно узнают.

— И на каждого человека существует папка, куда все стекается — где был, что делал на сайте?

— Если грубо, то да. Не на человека, а на браузер, на его сессию, на пользователя собирается информация. Вот вы вошли, вы начали регистрироваться, еще что-то, потом зашли на сайт «Яндекса», потом зашли на сайт интернет-магазина, но он использует метрику «Яндекса». Метрика — это небольшой скрипт на сайте, который запускается у вас на компьютере и дальше сообщает владельцам сайта о том, кто пришел и что делал. Вы ушли дальше, «Яндекс» все равно узнает, что это вы. Отследив ваше появление в Интернете, «Яндекс» составляет некоторое представление, кто вы такой, и делает некоторые гипотезы.

Если вы не спецагент и не олигарх, то на вас вряд ли обратят внимание. Да, ваши данные замешаны в сотнях миллионах данных о таких же людях, как вы. И в этом контексте про вас что-то знают. И даже, наверное, могут раскопать какую-то вашу личную информацию. Но не будут, как ни обидно это, может быть, принимать. Вы в этом смысле неинтересны. Вы интересны лишь как частица целого

Здесь есть интересный момент. Очень много сейчас можно встретить в Facebook’е такое: «Давайте опубликуем объявление, что я больше не отдаю свои данные. Давайте пользоваться Tor’ом». Надо понимать одну вещь. Где лучше всего прячутся трупы? Трупы лучше всего прячутся в горе других трупов. Если вы не спецагент и не олигарх, то на вас вряд ли обратят внимание. Да, ваши данные замешаны в сотнях миллионах данных о таких же людях, как вы. И в этом контексте про вас что-то знают. И даже, наверное, могут раскопать какую-то вашу личную информацию. Но не будут, как ни обидно это, может быть, принимать. Вы в этом смысле неинтересны. Вы интересны лишь как частица целого.

Есть анекдот про Шерлока Холмса, когда он подозревал 12 финансистов города в преступлении. И всем двенадцати он отправил записку «Все раскрылось, срочно беги!». Конечно же, побежит тот, кто виновен. В тот момент, когда мы начинаем себя вести так, как будто нам есть что скрывать, мы привлекаем внимание. О нас все равно известно довольно много, если мы не эксперты по информационной безопасности. И мы все равно полностью не закроемся. Сама попытка закрыться, как нестандартный паттерн поведения, привлекает внимание.

— Можно ли получить данные о том, на какие сайты человек заходит? И кто их может получить?

— С одной стороны, это святая святых, потому что для «Яндекса», Facebook и Google это основа бизнеса. Поэтому так просто эти данные они никому не отдадут, особенно в массе. Плюс в ряде случаев это еще и репутационные риски. Цукерберг отчитывался перед Конгрессом США за утечку персональных данных. Они могут предоставить эти данные, но, скорее всего, спецслужбам, либо в таком виде, когда лично про вас данные уже не вычислить.

Что они могут продать? Кто-то приходит и говорит: «Я хочу запустить новый сервис велосипедов на квадратных колесах. У меня гипотеза, что этим сервисом будут пользоваться такие-то люди, мне бы показать им рекламу». И вот тут Facebook, не отдавая ваши личные данные, тем не менее именно вам покажет рекламу, если вы попали в эту категорию. Не знаю, считать ли это раскрытием личной информации.

«Утечки из государственных баз случаются намного чаще, чем из поисковиков и соцсетей»

— То есть личная информация из Сети используется для бизнеса?

— Да, в основном для бизнеса. По моим ощущениям, утечки из разных государственных баз случаются намного чаще, чем из поисковиков и соцсетей, потому что это вопросы репутации и много чего еще. Когда мы говорим: «Давайте мы все это скроем», мы на самом деле говорим: «А давайте мы еще больше монополизируем этот рынок», чтобы эти данные использовали только избранные компании, собирающие о нас информацию, и никто другой.

Мы как-то участвовали в профессиональном обсуждении. Есть Google, у вас наверняка стоит браузер Google Chrome и у вас с большой вероятностью телефон на Android. Таким образом, Google знает о вас все, включая ваше местоположение, с кем и когда вы встречаетесь, с кем и когда вы созваниваетесь, куда выходите в Интернет. Дальше есть дилемма: либо об этом знает только Google, либо кто-то еще. Никто не говорит, что Google не должен знать о вас. Вопрос ставится иначе: «Ой, а вдруг, кроме Google, о нас узнает кто-то еще». И это приводит к тому, что все меры по защите еще больше монополизируют информацию у Google и никто, кроме Google, этой информацией распоряжаться не может. И даже если бы вы лично для себя захотели получить какую-то пользу от собранной информации, то пойдете вы только к Google.

Возникает философский вопрос: а не было бы правильнее, учитывая то, что информация все равно собирается, сделать ее открытой, сделать себя собственником личной информации? Ведь в настоящее время проблема в том, что собственник такой информации не вы сам, а Google. Вы не можете распорядиться информацией, а Google может. Вы не можете сказать ему: «Дорогой Google, дай мне, пожалуйста, информацию обо мне. Компания предоставит мне за нее скидку». Сейчас эти данные есть у Google, и он их продает, он на них зарабатывает, но не вы. Этот аспект очень интересен.

А то, что данные собираются… Это как строить плотину против реки — она только поднимает уровень давления. Стоит просто признать как факт, что данные открыты.

Возникает философский вопрос: а не было бы правильнее, учитывая то, что информация все равно собирается, сделать ее открытой, сделать себя собственником личной информации?

— Какие данные собирают в соцсетях веб-маяки, фирмы TNS, Mail.ru?

— Собирается максимум из того, что можно собрать, исходя из того, какие ресурсы у компании для сбора данных. В большинстве случаев она собирает намного больше, чем официально заявляет.

— А у них какая цель? Тоже для рекламы?

— В первую очередь реклама. И здесь рекламу стоит понимать очень широко. Это может быть социальная реклама, политическая реклама. Все данные о вас — это способ предложить вам что-то более удачное, что вы скорее купите, либо повлиять на принятие ваших решений в ту или иную сторону. Как развивалась история? Сначала не было никаких средств массовой информации. Люди друг другу что-то рассказывали. На наше мировоззрение влиял только ближний круг, ближайшая деревня. Потом появляются газеты, радио, телевидение. У нас появляется одно окно, через которое транслируется информация на всех, но при этом возникают точки интерпретации. То есть я что-то услышал, но не понимаю до конца, что это, поэтому иду к своему другу на кухню, обсуждаю то, что услышал в новостях. Таким образом, новости не полностью управляют мною.

А теперь мы приходим к еще одной фазе. Не будет единой новости для всех. Для каждого лично донесут ту информацию, которую он хотел бы услышать или про которую мы хотим, чтобы он услышал. И именно в таком варианте, в каком она его приведет к нужной мысли.

«Вы видите в Интернете то, что вы в нем ищете. Если вы перестанете искать в Интернете разврат и беззаконие, то обнаружите, что это светоч знаний»

— Тонкое управление людьми. То есть нейросети могут научиться тому, как подавать информацию, чтобы получить нужный результат.

— Происходит очень интересная вещь. Если мы хотим от человека определенного поведения, то, зная его поведение в Сети, мы можем показать ему то, что нам нужно для того, чтобы он совершил нужное нам действие. Речь не про фейки, мы можем не врать ему. Просто покажем ему ровно тот объем информации, который нужен, и не покажем другой объем информации. Эта история очень хорошо видна. Она происходит сейчас без всякого злого умысла. Хотя, когда Facebook с этим экспериментировал, разгорелся скандал. Например, если я вегетарианец и захожу на Facebook, то Facebook даже не на основании того, какие посты я лайкаю, а на основании времени, на которое я замираю напротив той или иной статьи, очень быстро начинает показывать только то, что мне приятно. Достаточно быстро весь мир оказывается для меня вегетарианским.

Мне очень смешно читать нападки на Интернет, что это — это рассадник разврата и беззакония. Мой ответ очень простой. Вы видите в Интернете то, что вы в нем ищете. Если вы перестанете искать в Интернете разврат и беззаконие, то обнаружите, что Интернет — это светоч знаний или, например, кладезь религиозной информации.

Еще интересный феномен. Объем информации таков, что когда вы что-то ищете в «Яндексе» или в Google, то каждому из нас он выдает абсолютно разные результаты. Чтобы сделать поиск хоть чуть-чуть релевантным, чтобы на первых трех страницах вы с большой вероятностью нашли то, что искали, он должен учесть весь контекст ваших предыдущих поисков. Это легко проверить. Вы можете взять, например, Google Chrome, если вы им всегда пользуетесь, набрать какой-нибудь поисковый зарос, посмотреть, что он выдал. Потом возьмите какой-нибудь Tor браузер, войдите через VPN и наберите тот же запрос в поиске Google. Вы обнаружите, что выдача другая, потому что он про вас еще многого не знает. Первая выдача будет лучше соответствовать вашим интересам, чем вторая.

Дальше уже философский вопрос: кто сформировал ваш интерес, которому лучше соответствует та или иная выдача? Это огромная область для манипуляции, намного больше, чем вопрос о том, что «вдруг кто-то узнает, где я был». Это все в массе никому не нужно. А вот то, что на основе информации о вас вами можно поманипулировать — это факт.

— В Китае получился контроль над Интернетом?

— Частично получился. Но это не прошло для Китая безболезненно. В Китае, кстати, более интересный контроль. Там экспериментируют с генной идентификацией людей и с социальным рейтингом. Социальный рейтинг — это просто опознавание по лицам. Полицейский, идя по улице, может увидеть степень опасности каждого человека.

Но там сделали еще одну интересную вещь. В рамках одной своей неспокойной провинции они в ходе медицинской диспансеризации провели довольно плотное снятие генома. То есть брали кровь на анализ, а заодно и ДНК. И что интересно, по следам раскрыли много преступлений, и не потому, что кровь сдавали преступники, а потому, что это сделали их родственники. ДНК родственников очень похожи. На месте преступления остается ДНК и, если хоть один из родственников попал под ДНК-сканирование, то все, можно считать, что преступник пойман. Это полноценное общество тотального контроля.

В Китае экспериментируют с генной идентификацией людей и с социальным рейтингом. Социальный рейтинг — это просто опознавание по лицам. Полицейский, идя по улице, может увидеть степень опасности каждого человека

— В Интернете есть ролики о скором наступлении тотального контроля во всем мире.

— О каждом вашем шаге будут знать. Но контролировать и знать — это немного разные вещи. Сейчас операторы сотовой связи знают о каждом вашем шаге, это уже факт. Им для этого ничего делать не нужно.

— Как вы относитесь к теме цифрового концлагеря?

— Это инструмент, подобный атомной энергетике: можно бомбы взрывать, а можно атомные реакторы строить. Это инструмент, который вряд ли прекратит свое существование, который будет, скорее всего, разрастаться и превращаться во что-то еще. Мы уже частично кибернетические механизмы, мы уже почти что не живем без смартфона. Тотальный контроль — это угроза, но никто же при этом не отказывается от смартфона, значит, это оправдано. И здесь встает важная философская дилемма: что мы предпочтем «по жизни»: свободу или безопасность? Безопасность проще всего реализуется через контроль…

Но скажу и такую вещь. В наше время технологии открыты — пока на них нет монополии, они общедоступны. Даже ребенок может позволить себе экспериментировать с искусственным интеллектом. И пока это так, я бы не паниковал.

Матвей Антропов
Справка

Олег Грешнев — управляющий партнер компании ВИНГРИД, независимый консультант в области цифровизации бизнеса и государственных организаций. Инженер-исследователь. Участвовал в реализации проектов по цифровизации крупнейших российских и зарубежных компаний. Активно участвует в развитии и практическом внедрении технологий машинного обучения и искусственного интеллекта в секторе реальной экономики, читает авторские курсы, в том числе курсы повышения квалификации для преподавателей университетов. Один из инициаторов общественной дискуссии по вопросам этики искусственного интеллекта.

ТехнологииITОбщество

Новости партнеров