6 рисков, связанных с развитием искусственного интеллекта

Ряд известных людей, включая легендарного физика Стивена Хокинга и инноватора Илона Маска, возглавляющего компании Tesla и SpaceX, полагают, что искусственный интеллект может быть опасен.

Макс однажды даже заявил, что он так же опасен, как диктатор в Северной Корее.

Основатель Microsoft Билл Гейтс также полагает, что есть причины с осторожностью относиться к искусственному интеллекту, однако он может сослужить хорошую службу, если должным образом обращаться с ним.

Так как искусственный интеллект и связанные с ним отрасли развиваются высокими темпами, многие задумываются о потенциальных рисках, которые с ним связаны.

В целом об искусственном интеллекте говорят тогда, когда речь идет об "умных" машинах, включая беспилотные автомобили.

Несмотря на то что большинство современных устройств создано так, чтобы быть благом для человечества, эксперты полагают, что любой мощный инструмент можно использовать с целью нанести вред, если этот инструмент попадает в плохие руки.

Сегодня технологии находятся на очень высоком уровне, включая такие инструменты, как распознавание лиц, обработка текста на естественном языке и запросы в интернете.

Эксперты в этой области в настоящий момент работают над созданием искусственного интеллекта, чьи системы могли бы выполнять любые задачи, которые может выполнять человек, и с высокой долей вероятности он превзойдет любого из нас.

В действительности скорость развития искусственного интеллекта действительно поражает. Сейчас очень много устройств с искусственным интеллектом, которые делают нашу повседневную жизнь более удобной и эффективном.

Эти устройства играют важную роль в обеспечении безопасности, относительно которой выражали обеспокоенность такие известные люди, как Илон Маск и Стивен Хокинг и другие.

Так, искусственный интеллект отвечает за работу энергосистемы, и если сбудутся все самые страшные предсказания, эта система попадет в руки врага, а это приведет к трагическим последствиям.

Риски искусственного интеллекта

Несмотря на то что машина с суперинтеллектом пока не изобретена, существует ряд юридических, политических, финансовых и регуляторных вопросов, которые необходимо решить, чтобы быть готовыми к безопасной работе такого устройства.

Даже несмотря на отсутствие такой машины, искусственный интеллект уже сейчас может нести в себе определенные риски. Ниже мы расскажем о них подробнее.

Автономное вооружение

Искусственный интеллект можно запрограммировать сделать что-то опасное, так, например, автономное вооружение запрограммировано убивать. И это один из рисков искусственного интеллекта.

Эксперты полагают, что ядерная гонка может в итоге перерасти в мировую гонку автономного вооружения.

Помимо того, что автономное вооружение может сделать что-то по-своему, более реальная угроза заключается в том, что такое оружие попадет в руки правительства, которое не очень ценит человеческую жизнь.

Если оно будет однажды развернуто, то свернуть такое вооружение будет крайне сложно.

Манипулирование общественным мнением

Социальные сети, благодаря автоматическим алгоритмам, очень эффективны в целевом маркетинге.

Они знают, кто вы, что вам нравится, а также очень хорошо умеют предполагать то, о чем вы думаете.

Все еще идет расследование в отношении Cambridge Analytica и других компаний, связанных с ней, которые использовали данные 500 млн пользователей Facebook, чтобы предсказать итоги президентских выборов 2016 г. и итоги референдума по Brexit в Великобритании. Если обвинения будут подтверждены, это продемонстрирует огромные возможности искусственного интеллекта в области манипуляции общественным мнением. Распространяя пропаганду лицам, определенным с помощью алгоритмов и личных данных, искусственный интеллект может распространять любую информацию, которая потребуется в любом формате, который будет выглядеть наиболее убедительным, неважно, будет ли это правда или ложь.

Вмешательство в частную жизнь

В настоящий момент можно отследить и проанализировать каждый шаг человека в интернете, а также то, что каждый человек делает в рамках своего бизнеса.

Камеры находятся практически повсюду, а механизмы распознавания лиц позволяют узнать, кто вы такой.

Эти механизмы способствуют развитию системы социальных кредитов в Китае, которая дает каждому жители страны определенное количество баллов на основе их поведения.

Оцениваются такие нарушения, как переход дороги на красный свет, курение в неположенных местах, сколько времени человек проводит за видеоиграми.

Большой брат действительно следит и принимает решения на основе этих данных. Это не только вмешательство в частную жизнь, но это может быстро привести к социальным притеснениям, опасаются аналитики.

Несовпадение наших целей с целями машины

Люди ценят машины с искусственным интеллектом за их эффективность.

Но если мы не задаем машине четкие цели, то это может быть опасно, так как у машины будут иные цели, чем у нас.

Например, команда "доставь меня в аэропорт как можно быстрее" может иметь неприятные последствия.

Если мы не оговариваем, что правила дорожного движения должны быть соблюдены в любом случае, машина может выполнить просьбу буквально и доставить в аэропорт максимально быстро, но оставив на своем пути немало жертв.

Дискриминация

Так как машины могут собирать, отслеживать и анализировать все данные о вас, то вполне вероятно, что эти машины будут использовать эти данные против нас.

Несложно представить себе, что страховая компания отказывает вас, основываясь на данных о том, сколько раз вас поймала камера, когда вы разговаривали за рулем по телефону.

Или же потенциальный работодатель может отказать на основе вашего "социального рейтинга".

Любая технология может использоваться неправильно. Сегодня искусственный интеллект используется в лучших целях, в том числе для улучшения качества медицинской диагностики, для поиска новых способов лечения рака или для повышения безопасности автомобилей.

К сожалению, по мере того как расширяются возможности искусственного интеллекта, он может стать опасным или использоваться с дурными намерениями.

Именно поэтому так важно обсуждать возможности сделать искусственный интеллект безопасным и минимизировать его разрушительный потенциал.

СЛЕДУЮЩИЙ МАТЕРИАЛ РАЗДЕЛА "IT"