Mac World

Стив Возняк подписал петицию против гонки вооружений на основе искусственного интеллекта

Сооснователь Apple Стив Возняк оказался в числе ученых, исследователей искусственного интеллекта (ИИ), специалистов по робототехнике и бизнесменов, подписавших открытое письмо о необходимости предотвратить гонку вооружений на основе искусственного интеллекта. Члены инициативной группы уверены, что это может привести к самым печальным последствиям для человечества.

Terminator-Genisys-1

Текст открытого письма с формой для подписания и со списком уже подписавшихся опубликован на сайте Future of Life Institute. Помимо Возняка свое согласие под обращением на данный момент поставило несколько сотен ученых и специалистов со всего мира, в том числе известнейший популяризатор науки, британский физик Стивен Хокинг и глава компании Tesla и проекта SpaceX Элон Маск.

В письме говорится, что особенностью автономных вооружений на основе искусственного интеллекта является их возможность поражать цели без вмешательства человека и что технология ИИ уже достигла того момента, когда развертывание систем оружия с ИИ может быть осуществлено практически в ближайшие годы. Автономные системы вооружений называют третьей революцией в военных действиях, после пороха и ядерного оружия.

Авторы письма уверены, что для человечества сегодня ключевым является вопрос — будет или нет запущена гонка вооружений на основе ИИ. Если такую гонку начнут инициировать крупные корпорации, то спустя какое-то время автономные оружейные системы получат широкое распространение, поскольку в отличие от ядерного оружия для их создания не требуется дорогостоящего или трудно получаемого сырья.

«Вопросом времени будет появление таких систем на черном рынке или их попадание в руки террористов, диктаторов, «военных баронов», стремящихся к осуществлению этнических чисток. Автономное оружие идеально подходит для убийств, дестабилизирующих нации, подчинения населения и избирательного уничтожения определенной этнической группы. Поэтому мы считаем, что гонка вооружений на основе ИИ не выгодна человечеству», — цитирует письмо RIA.

Авторы письма отмечают, что ИИ имеет большой полезный потенциал и во многом может сослужить добрую службу человечеству. Но гонка вооружений ИИ является плохой идеей, и поэтому необходимо ввести запрет на наступательное оружие, созданное на основе искусственного интеллекта, говорится в письме.

5 комментариев

Написать комментарий