Элиезер Юдковский
Eliezer S. Yudkowsky
Рейтинг книг:
1640 1366 98 31 41

Информация

Родился: 11 сентября 1979 г., США

Биография

Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI).

Он — автор книги «Создание дружественного ИИ» («Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence», 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition», 2004) и «Вневременная теория принятия решений» («Timeless Decision Theory», 2010). Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков». Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.