Философ Тоби Орд в книге "Пропасть" оценивает риски для цивилизации. Ядерная война и климатические изменения уступают угрозе неконтролируемого ИИ. Суперинтеллект может оптимизировать процессы, игнорируя людей. Энергозатраты на его развитие требуют глобального контроля.
Орд считает пандемии (1 шанс на 30 в век) и ИИ (наивысший риск) главными угрозами. Энергетические системы могут стать заложниками ИИ без этики. Наука пока не имеет консенсуса об опасности. Регулирование ИИ критично для устойчивости.
Энергетика зависит от управления ИИ. Транспорт и промышленность требуют безопасных алгоритмов. Международные исследования минимизируют риски. Это вызов для будущего энергетики.
Эта новость является результатом компиляции и перепечатки информации из глобального Интернета и стратегических партнеров. Она предназначена только для читателей. Если у вас возникнут какие-либо нарушения или другие проблемы, пожалуйста, своевременно сообщите нам. Этот сайт изменить или удалить ее. Перепечатка этой статьи без официального разрешения строго запрещена.электронная почта:news@wedoany.com