Организация Future for Life Institute подготовила открытое письмо об опасности для человечества автономного оружия с искусственным интеллектом. Письмо подписало несколько сотен известных ученых и инженеров, в том чисел Стивен Хокинг, Элон Маск и Стив Возняк.
В письме говорится, что создание оружия с искусственным интеллектом, которое сможет самостоятельно искать и уничтожать людей, будет возможным даже не в ближайшие десятилетия, а уже в ближайшие годы. Развитие таких технологий неизбежно приведет к гонке вооружений, а как только подобное оружие станет достаточно дешевым, оно будет доступно террористам, диктаторам или военным, одержимым идеей этнической чистки. Авторы сравнили это вооружение с автоматом Калашникова — дешевым, распространенным по всему миру и смертоносным.
«Существует много способов обезопасить при помощи искусственного интеллекта поля боя, в особенно для гражданского населения, не создавая при этом новый инструмент для убийства людей. Как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, так и исследователи в области искусственного интеллекта не хотят создавать оружие с использованием ИИ — и в той же мере не хотят, чтобы кто-либо другой так поступал, очерняя эту область науки», — считают авторы.
Открытое письмо собираются представить сегодня на международной научной конференции в Буэнос-Айресе.