Три угрозы человечеству, которые несет искусственный интеллект

/uploads/thumbnail/20180223174428243_small.jpg

Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки.

Согласно опубликованному отчету "Вредоносное использование искусственного интеллекта", ИИ вполне может использоваться странами-изгоями, преступниками и террористами.

Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.

Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин сказал Би-би-си, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.

"Кардинальная перемена"

Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.

Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета, сказал по этому поводу следующее: "ИИ изменит существующие угрозы для отдельных граждан, организаций и государств - будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий - полный спектр воздействия этого на безопасность огромен".

"Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд", - полагает ученый.

Шон О'Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: "Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны".

"Выбор надо делать уже сейчас, и наш доклад - это призыв начать действовать правительствам, организациям и отдельным лицам по всему миру. В течение долгих десятилетий шумиха вокруг ИИ и его способностей опережала реальность. Но теперь это не так. Это доклад рассматривает существующие в мире подходы, которые больше не работают, и предлагает более широкомасштабный подход: например, как создать программное обеспечение и микропроцессоры, которые труднее было бы взломать, и какие в поддержку этому нужно принять законы и международные уложения".

100-страничный доклад определяет три сферы - цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.

В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.

 

Оставить комментарий

Связанные Статьи