Больше рецензий

7 ноября 2017 г. 15:55

1K

4 Технофобия с человеческим лицом

Как правило, когда сталкиваешься с работами, критикующими идею искусственного интеллекта, приходится иметь дело с ужасающей некомпетентностью автора. Почти все такого рода критики попросту отрицают либо саму возможность разработки ИИ, либо его шансы радикально превзойти человечество по всем пунктам.

Джеймс Баррат - абсолютно не таков. Он достаточно владеет темой, чтобы признать возможность и, более того, ближайшие перспективы создания ИИ. И у него достаточно интеллектуальной честности, чтобы обойтись без демагогии на тему "машины никогда не превзойдут людей, т.к. у них нет души" и аналогичной чепухи. Нет, он последовательно отстаивает мысль о том, что ИИ человеческого, а затем и сверхчеловеческого уровня будет со всей неизбежностью разработан, после чего шансы человечества на выживание моментально упадут до околонулевой величины. При этом он активно задействует работы специалистов в области ИИ, детально анализирует возражения оппонентов и разбирает возможные сценарии как нашей гибели, так и предполагаемого спасения.

В сущности, я могу указать лишь на один серьезный недостаток этой книги - антропоцентричность ценностей и вытекающее из него предвзятое отношение к движению сингуляритариев. В частности, обсуждая сценарий интеграции человека с ИИ (в том числе "загрузки сознания"), автор настаивает на том, что получившийся таким образом цифровой постчеловек потенциально не менее опасен, чем "чистый" ИИ. Но, прошу прощения, опасен для кого? Для "обычных" людей - именно с их позиций и ведется изложение. И автор даже не пытается встать на точку зрения такого "загруженного" постчеловека или рассмотреть сценарий всеобщей "загрузки". Впрочем, быть может, я слишком многого требую. По сравнению с другими книгами аналогичной направлености, изданных на русском языке, эта в любом случае выдающаяся.

Ветка комментариев


С транзистором - да, вероятно. В этой сфере автор явно не специалист, поэтому, должно быть, неправильно понял какую-нибудь словарную статью про транзисторы, где говорилось об их использовании при конструировании усилителей сигнала или что-то вроде этого.

А насчет SyNAPSE, насколько я понял, речь просто идет о воображаемом сценарии, когда SyNAPSE превосходит человеческий мозг по сложности со всеми вытекающими, а не реально существующем положении дел. А так - да, использование этого "в настоящее время" меня поначалу тоже смутило: если бы какой-то проект преодолел этот порог сложности, я бы наверняка об этом знал. :-)


Вот в том то и беда, что автор мало того явно не специалист во всем, о чем пишет, но еще и позволяет себе домысливать себе резервуары с жидким алюминием в качестве роутера.

Есть еще момент: автор постоянно опирается на сравнение с человеческим мозгом как порогом, при котором AI может быть опасен для человечества, но это совершенно ни на чем не базируется. Элементы того, что может быть названо сознанием, появляются на гораздо меньших уровнях сложности мозга.


Тут беда в том, что у нас нет приемлемых оценок этой критической сложности: т.е. уровня, начиная с которого вступает в действие эта положительная обратная связь, ведущая к экспоненциальному росту интеллекта. Но мы знаем, на человеческом уровне она работает, а на уровне шимпанзе - нет. Поэтому, как по мне, неплохое приближение.


Но и сама критическая сложность наверно все же всего лишь гипотеза. И потому категорически связывать с ней опасность искусственного интеллекта на мой взгляд ошибочно.
"Доброжелательный" AI с широкими возможностями может быть не менее если не еще более опасен.
Дэн Браун кстати уже откликнулся в новом романе "Origin"


Гипотеза неплохо обоснована: самосовершенствование - тоже задача, требующая интеллекта. Интеллект может быть способен или неспособен решить эту задачу. Вот эта граница между двумя уровнями развития интеллекта и является той самой критической сложностью. Понятно, что это расплывчатый показатель, т.к. единственный численный показатель недостаточен для полного описания возможностей интеллекта, но в этой сфере вообще хватает расплывчатого и плохо определенного. Ну а что касается дружественного ИИ, то я вижу следующие возможности для нанесения им вреда:
1. Неумышленно: он выполняет действие, о негативных последствиях которого не знает.
2. Умышленно: если понятия вреда и пользы были неправильно определены при создании ИИ (автор обсуждаемой книги, кстати, приводит такие примеры)
3. Случайно: если непредвиденный фактор вмешивается в планы ИИ, и все идет наперекосяк.
Второй пункт представляется мне наиболее серьезным: его тяжелей всего предотвратить, а потенциальные последствия его - наиболее разрушительны.

И спасибо за наводку на Дэна Брауна. Еще не слышал о его новом романе.


Интеллект может быть способен или неспособен решить эту задачу.

В некотором смысле - это стандартная задача для современного AI: научиться с нуля играть в шахматы на высочайшем уровне, научиться понимать капчи не хуже человека, предсказать мнение суда по конкретному делу лучше живых юристов, ставить диагноз. Это именно что наращивание интеллекта, не так ли?

возможности для нанесения им вреда

А я бы поставил на первое место взаимодействие с человеком, имеющим свои цели.

Романа в переводе еще нет.