Искусственный интеллект делает нашу жизнь удобнее и комфортнее. Но он же, вернее, способы его применения несут угрозу нашим правам и свободам. Во всяком случае, в этом уверен профессор Центрально-Европейского университета Камеран Ашраф.
ОБРАТНАЯ СТОРОНА ПРОГРЕССА. Еще в 1970-х годах, когда даже слова «интернет» еще не придумали, радикальный мыслитель Герберт Маркузе предрекал появление неких новых технологий, способных изменить мир. С одной стороны, они откроют новые перспективы для свободы, но с другой – создадут новые формы отчуждения и дадут государству и корпорациям новые механизмы контроля над людьми.
Тогда над мыслителем потешались. Но сегодня его пророчество, похоже, осуществляется. Профессор Камеран Ашраф основал движение Access Now, которое занимается защитой прав и свобод людей в эпоху цифровых технологий. Он говорит, что технологии могут служить делу свободы и демократии. Например, с их помощью можно распространять информацию, которую правительство предпочло бы скрыть. Но те же технологии несут в себе и угрозу для свободы и демократии.
ПОД НАБЛЮДЕНИЕМ. Мы уже привыкли к тому, что социальные медиа анализируют нашу активность в сети и на основе наших интересов предлагают нам те или иные товары или события. Это может показаться безобидным или даже удобным. Однако информацию, собранную о вас через социальные сети, могут использовать в ущерб вашим интересам, а то и вовсе в преступных целях (EtCetera уже подробно писал об этом). В любом случае, подобный сбор информации можно расценить как посягательство на право на приватность и неприкосновенность личной жизни.
ВЛАСТЬ СТЕРЕОТИПОВ. Компьютерные программы и алгоритмы уже умеют ставить диагнозы и определять, стоит ли давать человеку банковский кредит. А в Новом Орлеане (США) полиция с помощью искусственного интеллекта определяет, в какие районы города нужно направлять больше патрулей для предотвращения преступлений. Однако, как оказалось, программа отправляет больше патрулей в районы, где живут афроамериканцы – просто потому, что так запрограммирован алгоритм. Нечто подобное обнаружилось в корпорации Amazon, которая использует искусственный интеллект для подбора сотрудников. Выяснилось, что, например, у человека по имени Джеральд шансов устроиться на работу больше, чем у человека по имени Кэмерон. Такие случаи вполне можно назвать проявлениями дискриминации.
В СОБСТВЕННОМ СОКУ. Алгоритмы Фейсбука и Инстаграма включают в вашу ленту новостей, в первую очередь, новости и посты от людей, похожих на вас по разным признакам – по профессии, национальности или политическим взглядам. Например, если вы поделились несколькими постами с критикой действующего президента, то постепенно в вашей ленте будет появляться все больше новостей оппозиционного характера. Так же работают и поисковые системы. Они анализируют ваши месторасположение и историю поиска и будут показывать вам только ту информацию, которая согласуется с вашими предпочтениями.
Все это создает эффект, который интернет-активист Илай Парайзер назвал «пузырем фильтров». Мы замыкаемся в кругу себе подобных, начинаем считать, что наши взгляды и мнения – это и есть взгляды и мнения большинства, и просто не узнаем о новых идеях и другой важной информации.
Эффект «пузыря фильтров» приводит к нежеланию и неумению слушать чужое мнение. Поэтому пользователи соцсетей все чаще жалуются на политические посты, противоречащие их взглядам. В результате алгоритм начинает воспринимать подобный контент как оскорбительный для других и меньше его показывать. Тем самым ограничивая право на свободу выражения взглядов.
ЧТО ДЕЛАТЬ? Все вышеперечисленное не имеет ничего общего с «восстанием машин», которым пугали нас авторы фантастических фильмов прошлого. Алгоритм искусственного интеллекта – это всего лишь набор правил, который создают люди.
По мнению Камерана Ашарафа, разработку искусственного интеллекта нужно сделать более разнообразной, чтобы не получалось так, что несколько человек закладывают в алгоритм только свои представления и идеи. Кроме того, нужны новые законы и нормы, которые будут регулировать сферу цифровых технологий. Наконец, и сами алгоритмы должны стать более прозрачными для пользователей: мы должны понимать, как они работают.
По материалам Центра информации про права человека