Жена, облеченная в солнце
  1260.org  
Свящ. Писание     ru     en  
       
 
 
. Загрузить
zip-file
Главная
+ Категории
+ Явления
Ла-Салетт
Фатима
Борен
Хеде
Гарабандал
Зейтун
Акита
Меллерей
Меджугорье
История
Апостасия
Коммунизм
1000 лет
Библия
Богородица
Толкования
Молитва
Розарий
Обожение
Сердце
Жертва
Церковь
Общество
Природа
Персоналии
Тексты
Статьи
Указатель
Ссылки
Литература
email
 
МакАфи, Энди Общество. Персоналии Курцвейл, Рэймонд

Билл Джой (Bill Joy)

Рождение: 8 ноября 1954; Детройт, США

Билл Джой (полное имя Уильям Нельсон Джой, William Nelson Joy) — американский учёный в области теории вычислительных систем, разработчик программного обеспечения для UNIX, один из основателей и бывший руководитель исследовательского отдела Sun Microsystems.

В апреле 2000 года журнал Wired опубликовал эссе Билла Джоя «Почему мы не нужны будущему», которое вызвало оживлённую дискуссию во всём мире. В нём Джой выразил озабоченность стремительным и неконтролируемым развитием высоких технологий, являющимся источником опасности для всего человечества.

Если бы мы могли договориться …

Если бы мы могли договориться, мы могли бы тогда понять.

… В современную эпоху мы пришли к уважению научного знания.

Но невзирая на сильные исторические прецеденты, если свободный доступ к знанию и неограниченное развитие знания подвергает всех нас с этого времени ясной опасности вымирания, то здравый смысл требует, чтобы мы пересмотрели даже эти основные, долго удерживаемые убеждения.

Именно Ницше в конце 19-го века предупреждал нас, что не только Бог мёртв, но и что "вера в науку, которая, в конце концов, бесспорно существует, не может быть обязана своим происхождением исчислению общественной пользы; она должна происходить назло тому обстоятельству, что бесполезность и опасность принципов «воля к истине», «истина любой ценой» подтверждается то и дело". Это и есть та дальнейшая опасность, с которой мы сейчас сталкиваемся в полной мере — последствия нашего искания истины. Истина, которую ищет наука, несомненно может считаться опасной подменой Бога, если она, вероятно, должна привести к нашему вымиранию.

Если бы мы могли, как биологический вид, договориться о том, чего мы хотим, куда мы держим курс и почему, то мы сделали бы наше будущее гораздо менее опасным — мы могли бы тогда понять, от чего мы можем и должны отказаться.

Следует призадуматься …

Сколько осталось до создания таких разумных роботов? Судя по всему, ожидаемый рост вычислительной мощности сделает это возможным к 2030-му году. А как только разумный робот будет сделан, до породы роботов — до разумных роботов, способных изготавливать развёрнутые копии самих себя, — останется только небольшой шаг.

Прежде всего именно из-за силы разрушительного саморазмножения в генетике, нанотехнологии и робототехнике (ГНР) нам следует призадуматься. …

На самом деле у нас уже давно были ясные предостережения об опасностях, присущих широкому распространению знаний о ГНР-технологиях — о способности одних лишь знаний создать возможность массового уничтожения. Но эти предостережения не были широко оглашены, публичных дискуссий было явно мало. В оповещении об опасностях нет никакой выгоды.

Ядерная, биологическая и химическая (ЯБХ) технологии, применяемые в оружиях массового уничтожения 20-го века, были и есть в значительной степени технологии военные, развиваемые в правительственных лабораториях. ГНР-технологии 21-го века в этом плане резко отличаются: они имеют ясные коммерческие применения и развиваются почти исключительно корпоративным предпринимательством. В этот век торжествующего торгашеского духа технология — с наукой в качестве своей служанки — поставляет ряд почти волшебных изобретений, которые по своей прибыльности превосходят всё виденное раньше. Мы настойчиво гонимся за перспективами этих новых технологий в рамках неоспариваемой сейчас системы мирового капитализма с его многочисленными денежными стимулами и давлением конкуренции.

Закон Мэрфи - "Всё, что может сломаться, сломается"

Сперва давайте примем без доказательства, что компьютерщики преуспеют в совершенствовании разумных машин, которые всё смогут делать лучше, чем люди. В этом случае, по-видимому, вся работа будет делаться многочисленными высокоорганизованными системами машин, и не нужны будут никакие людские усилия. Может произойти одно из двух. Либо машинам может быть разрешено делать всё, что они сочтут нужным, без человеческого за ними присмотра, либо человеческий контроль над машинами может быть сохранён.

Если машинам дана полная свобода в осуществлении их собственных решений, то невозможно сказать, к чему это приведёт, потому что невозможно угадать, как такие машины могут себя вести. Мы лишь укажем, что гибель рода человеческого была бы во власти машин. Будет ли человечество когда-нибудь столь безрассудно, что передаст всю власть машинам, или же никогда не будет, - спорный вопрос. Но мы намекаем не на то, что человечество добровольно передаст власть машинам, и не на то, что машины умышленно захватят власть, а на то, что человечество легко может позволить себе скатиться до положения такой зависимости от машин, что не будет уже никакого практического выбора, кроме как полного принятия всех машинных решений. В то время как общество и проблемы, с которыми оно сталкивается, будут становиться всё более и более сложными и всё более и более интеллектуальными будут становиться машины, люди будут позволять машинам принимать за них больше решений, просто потому, что решения, выработанные машинами, будут приводить к лучшим результатам, чем решения, принятые людьми. В конце концов может быть достигнута ступень, когда решения, необходимые для поддержания системы в рабочем состоянии, будут такими сложными, что люди будут неспособны к разумной выработке этих решений. На этой ступени фактически распоряжаться будут машины. Люди просто не смогут выключить машины, потому что они будут столь зависимы от них, что их выключение равнялось бы самоубийству.

С другой стороны, возможно, что человеческий контроль над машинами может быть сохранён. В этом случае средний человек может управлять некоторыми своими личными машинами, такими, как автомобиль или персональный компьютер, но контроль над крупными системами машин будет в руках крохотной элиты - совсем как сейчас, но с двумя отличиями. Благодаря усовершенствованной технике элита будет иметь больший контроль над массами, а поскольку человеческий труд будет больше не нужен, массы будут излишними, бесполезным бременем для системы. Если элита безжалостна, она может просто принять решение истребить людскую массу. Если же она гуманна, то она может использовать пропаганду или иные психологические или биологические способы для сокращения уровня рождаемости, до тех пор, пока людская масса не вымрет, освободив мир для элиты. Или, если элита состоит из мягкосердечных либералов, она может решить сыграть роль доброго пастыря для остального человечества. Они будут присматривать, чтобы физические потребности каждого были удовлетворены, чтобы все дети воспитывались в психологически здоровых условиях, чтобы каждый человек не бездельничал, а имел полезное занятие по душе и чтобы всякий, кто мог стать недовольным, подвергался "лечению" для того, чтобы исцелить его "трудный случай". Конечно, жизнь будет настолько бесцельной, что людей придётся биологически или психологически перестроить: либо устранить их потребность в процессе власти7, либо заставить их превратить своё побуждение к власти в некоторое безобидное хобби. Эти спроектированные люди могут быть счастливы в таком обществе, но они совершенно определённо не будут свободны. Они будут приведены к статусу домашних животных[8].

В книге, пока вы не перевернёте страницу, вы не обнаружите, что автором этого отрывка является Теодор Качински - Унабомбер[9]. Я не защитник Качински. В течение 17-летней кампании террора его бомбы убили троих людей и многих поранили. Одна из его бомб тяжело поранила моего друга Дэвида Гелернтера, одного из самых выдающихся компьютерщиков и провидцев нашего времени. Подобно многим моим коллегам, я чувствовал, что следующей мишенью Унабомбера запросто мог быть я.


[8] Отрывок, который цитирует Курцвейл, взят из "Манифеста Унабомбера" Теодора Качински[9]. Этот манифест был под принуждением опубликован совместно "Нью-Йорк Таймс" и "Вашингтон пост" в качестве попытки завершить его кампанию террора. Я соглашаюсь с Дэвидом Гелернтером, который сказал об их решении: "Это было бандитское требование к газетам. Сказать "да" было бы уступкой терроризму, и, насколько им было известно, он так или иначе лгал. С другой стороны, согласие могло остановить убийства. Была также возможность того, что кто-то прочтёт трактат и заподозрит автора; так оно и вышло. Это прочёл брат подозреваемого, и раздался звонок. "Я бы сказал им, чтобы они не публиковали. Я рад, что они меня не спросили. Я догадываюсь." (Drawing Life: Surviving the Unabomber. Free Press, 1997: 120.) (прим. авт.)
[9] Террориста Теодора Качински (Theodore Kaczynski) назвали "Unabomber" потому, что его бомбы взрывались, как правило, в университетах (universities) или самолётах (airplanes). Качински - выпускник Гарварда 1962 года. Он посылал по почте наиболее видным исследователям взрывные устройства. В результате его деятельности с 1978 по 1995 год три человека погибло и ещё 29 получили ранения. В 1995 году он шантажом добился публикации своего объёмистого эссе, называвшегося "Индустриальное общество и его будущее", но напечатано оно было под заголовком "Манифест Унабомбера". Манифест написан очень сжатым языком и все рассуждения сводятся к тому, что промышленная революция, которую большинство жителей развитых стран почитает за благо, на самом деле является проклятием, и чтобы спасти человеческое общество, все его прогрессивные представители должны объединиться и совершить анти-научно-техническую революцию, отказавшись от господства технократии и прогресса. Манифест, напечатанный многомиллионным тиражом, попал к брату террориста, Дэвиду Качински; тот его опознал и сдал властям. Судебным разбирательством Теодор был приговорён к пожизненному заключению, которое он сейчас отбывает в тюрьме "Supermax". Дэвид за содействие властям получил солидную денежную премию, но на себя не потратил ни цента. На полученные деньги он основал фонд помощи семьям жертв Теодора и оказывает им финансовую поддержку.

К сожалению, нанотехнологию, так же, как и ядерную технологию, гораздо легче применять для разрушения, чем для созидания. Нанотехнология имеет ясное военное и террористическое употребление, и совсем не нужно быть самоубийцей для того, чтобы в массовом количестве выпустить на волю разрушающие нанотехнологические устройства: такие устройства могут быть сделаны так, что они будут разрушать избирательно, затрагивая, например, только определённые географические зоны или только генетически определённые группы людей.

Непосредственным следствием Фаустовской сделки для получения огромной силы нанотехнологии является то, что мы подвергнемся серьёзному риску полного разрушения биосферы.

Вот как объяснял это Дрекслер:

"Растения" с "листьями", которые нисколько не эффективнее сегодняшних солнечных батарей, могут в процессе конкуренции вытеснить настоящие растения, битком набивая биосферу несъедобной листвой. Стойкие всеядные "бактерии" могут вытеснить в процессе конкуренции настоящие бактерии, они могут распространяться подобно развевающейся пыльце, размножаться быстро и превратить биосферу в прах за считанные дни. Опасные репликаторы могут оказаться слишком стойкими, мелкими и быстро распространяющимися для того, чтобы их можно было остановить, по крайней мере, если мы никак к этому не подготовились. Даже контроль над вирусами и плодовыми вредителями доставляет нам много хлопот.

Среди знатоков нанотехнологии эта угроза стала известна как "проблема серой слизи". Массы неуправляемых репликаторов не обязательно должны быть серыми или липкими, просто термин "серая слизь" подчёркивает, что репликаторы способны уничтожить жизнь так, что пейзаж, который получился бы в результате, был бы куда более скучным, чем поле, заросшее единственным видом ползучего сорняка. В эволюционном смысле репликаторы могут превосходить, но это не обязательно делает их полезными.

Угроза серой слизи делает совершенно ясным одно: мы не можем позволять себе определённого рода случайностей с размножающимися сборщиками.

Серая слизь была бы, конечно, унылым окончанием наших человеческих приключений на Земле, окончанием, гораздо более худшим, чем просто огонь или лёд. И это может произойти из-за простой лабораторной случайности[33]. Хоп!


[33] В своём романе "Колыбель для кошки", написанном в 1963-м году, Курт Воннегут вообразил катастрофу, подобную "серой слизи", где разновидность льда, называющаяся "лёд 9" и затвердевающая при гораздо более высокой температуре, замораживает океаны. (прим. авт.)

См. также

Ссылки

Литература

       
     
        Чтобы эти исследования продолжались,
пожалуйста, поддержите нас.
       
       
       
Контактная информация     © 2012—2017    1260.org     Отказ от ответственности