ʺМашина судного дняʺ под управлением ИИ пока представляется маловероятной. Но реальные риски для ядерной безопасности заключаются в способности ИИ побудить людей к принятию неоправданных, потенциально апокалипсических решений. Об этом сообщает издание ʺРоссийский Диалогʺ.
Прежде в Google разработали ʺбольшую красную кнопкуʺ, призванную остановить искусственный интеллект в случае угрозы человечеству. По информации журналистов, для этого специалисты подразделения Google – компании Deep Mind – объединились с учеными из Оксфордского университета. На исследования выделено 400 млн британских фунтов.
В публикации RAND говорится, что в ближайшие десятилетия ИИ вполне способен разрушить концепцию гарантированного взаимного уничтожения и тем самым подорвать стратегическую стабильность нашего мира. Нации могут войти в соблазн стремиться к обладанию средствами первого удара, как если бы это давало преимущества над соперниками, даже если у них нет намерения нанести удар первыми
Исследователи полагают, что в процессе развития ИИ станет менее подвержен совершению ошибок по сравнению с людьми, поэтому окажется фактором стабильности в ядерном плане.
Ранее в Китае представили уникальный монорельс, в управлении которого задействуют искусственный интеллект. Состав передвигается на одном несущем рельсе на высоте около 4 метров над землей. Yungui позволяет развивать скорость до 80 км/ч.
Напомним, что американские ученые намерены сотворить искусственный интеллект, который способен высчитать точную дату смерти человека.