Философ Тоби Орд в книге "Пропасть" оценивает риски для цивилизации. Ядерная война и климатические изменения уступают угрозе неконтролируемого ИИ. Суперинтеллект может оптимизировать процессы, игнорируя людей. Энергозатраты на его развитие требуют глобального контроля.
Орд считает пандемии (1 шанс на 30 в век) и ИИ (наивысший риск) главными угрозами. Энергетические системы могут стать заложниками ИИ без этики. Наука пока не имеет консенсуса об опасности. Регулирование ИИ критично для устойчивости.
Энергетика зависит от управления ИИ. Транспорт и промышленность требуют безопасных алгоритмов. Международные исследования минимизируют риски. Это вызов для будущего энергетики.