Научно-фантастический оккультизм стал мейнстримом.

У карманных телефонов, как и у большинства человеческих изобретений, непростая история. Первоначально предназначенный для использования в военных целях, к ноябрю 1992 года десять миллионов американцев купили свой первый мобильный телефон. Но несколько месяцев спустя человек по имени Дэвид Рейнард появился в популярном в то время ток-шоу Larry King Live, и история мобильных телефонов приняла новое направление.

Рейнард оплакивал смерть своей жены, которая умерла от рака. В эмоциональном выступлении он заявил, что опухоль ее мозга была вызвана ее мобильным телефоном. Эта телевизионная передача вызвала широко распространенный общественный страх перед сотовыми телефонами, который длился десятилетиями. Таким образом, история г-на Рейнарда отбросила распространение сотовых телефонов на месяцы, если не на годы.

Теперь мы уверены, что мобильные телефоны не вызывают рак мозга. Но в последние недели по СМИ прокатилась новая волна опасений, на этот раз связанных с искусственным интеллектом.

Будущие поколения могут помнить это как The Великую угрозу ИИ. Во главе с небольшой группой магнатов и инсайдеров Силиконовой долины дискуссия оформляется как экзистенциальный, поворотный момент не только для человечества, но и для жизни на Земле.

Предполагаемые риски варьируются от скромных и разумных до диковинных и причудливых. Однако в этой статье я покажу, что все они фальшивые.

Я расскажу о трех основных опасениях, связанных с ИИ: научно-фантастический апокалипсис, массовая безработица и пропаганда, контролирующая разум, и покажу, что они необоснованны. Как и в случае с мобильными телефонами в 1990-х или автомобилями в 1920-х, фантастические катастрофы вряд ли станут реальностью.

Если вы интересуетесь ИИ и финансовыми рынками, рассмотрите возможность присоединиться к нам в Sharestep, инструменте ИИ, который превращает фондовый рынок в рынок идей.

Поддельный риск I: научно-фантастический апокалипсис

Проблема с доказательством абсурда диковинных предсказаний состоит в том, что заявления о будущем нельзя опровергнуть окончательно, какими бы странными они ни казались. Например, если вы скажете мне, что скоро мы будем жить в подводных городах, я подозреваю, что вы ошибаетесь, но я не могу этого доказать.

В таких случаях обычно лучше задавать вопросы человеку, делающему прогноз, чем самому прогнозу. Ad hominem: задавайте вопросы человеку, а не аргументу. Является ли человек заслуживающим доверия, компетентным и в здравом уме? Есть ли у него недостатки, которые могут повлиять на его суждения? Почему он утверждает, что знает будущее?

Давайте поговорим о научно-фантастическом оккультизме. Научно-фантастический оккультизм в широком смысле – это использование научной риторики и языка для аргументации ненаучных, не поддающихся фальсификации теорий и гипотез, которые часто бывают сенсационными и диковинными. Как метод, он дает фантасту-фантасту карт-бланш на утверждения, которые он может сделать в отношении будущего.

К первосвященникам научно-фантастического оккультизма относятся Ник Бостром, философ из Оксфордского университета, и Рэй Курцвейл, самопровозглашенный футурист, который, чтобы быть вежливым, сделал карьеру, дополняя свое резюме достижениями.

Любой, кто знаком с высшими жрецами научно-фантастического оккультизма, обнаруживал, что интуитивно угадывает нечто исконное. Это чувство, которое мы часто испытываем в детстве, но во взрослом возрасте мы испытываем его реже. Это ощущение, что с другим ребенком что-то не так, что его разум не в порядке.

Когда Бостром или Курцвейл говорят, возникает то же самое чувство — ощущение, что человек, который говорит, находится вне дороги, на другой полосе. Или, как говорят бабушки: в своем мире.

Но есть человек, о котором больше, чем кто-либо другой, стоит упомянуть сейчас  — человек момента среди проповедников техно-конца времен.

Введите Элиэзера Юдковски, элитного влиятельного лица Кремниевой долины.

Он описывает себя как самоучку (эвфемизм среднего класса для обозначения незаконченного образования) и имеет яркую историю с технофутуризмом. Он тесно сотрудничал с Рэем Курцвейлом, Ником Бостромом и общается с большинством магнатов Кремниевой долины. За последние десять лет он сделал больше, чем кто-либо другой, чтобы распространить слухи о гибели ИИ среди богатых бездельников Силиконовой долины.

Он, как и Курцвейл, проповедовал Сингулярность, квазирелигиозное пророчество о том, когда искусственный интеллект превзойдет биологический интеллект, что приведет к утопии.

С тех пор его взгляды на технологии испортились — сейчас он считает, что машины с искусственным интеллектом скоро вырвутся из центров обработки данных, чтобы уничтожить нас. Недавно в журнале Time Magazine он выступал за бомбардировки центров обработки данных, чтобы предотвратить это.

Юдковский получил строгое религиозное воспитание. Вероятно, на его оккультистские убеждения повлияла его религиозная подготовка. Например, Молох, сатанинское существо из еврейской Библии, играет ведущую роль в своих работах об ИИ и в своих предсказаниях относительно его потенциала.

Что наиболее показательно, Юдковски — фанат научной фантастики. Он часто ссылается на «Звездные войны», «Звездный путь» и «Дюну», вплетая их в дискуссии и эссе, которые явно серьезны. Франшизы комиксов, такие как Бэтмен, также входят в число его любимых ссылок.

Короче говоря, Юдковски, как Курцвейл и Бостром, шарлатан. Он так и не научился отделять те фантастические миры, которые любит, от обычного, в котором живет.

«Звездный путь» имеет гораздо больше смысла, если это тайно переведенная история о волшебниках с достаточно развитой магией. Это было просто перефразировано как «технология», чтобы мы, магглы, могли понять.

— Элизер Юдковски

Я мог бы написать гораздо больше о том, насколько бессмысленно делать какие-либо предсказания о будущем, не говоря уже о тех, которые основаны на вымышленных развлечениях и религиозной паранойе. Но нужды нет. Как я уже сказал, часто лучше задавать вопросы человеку, чем спорить. Следуя ad hominem, вы можете быть уверены, что прогнозы апокалипсиса ИИ неверны.

Фальшивый риск II: массовая безработица

Более реальным является страх перед массовой безработицей или, по крайней мере, перед хаотическими, непредсказуемыми изменениями на рынке труда.

Теперь понятно, что люди опасаются автоматизации своих навыков. Я тоже этого боюсь. Но и эти прогнозы вряд ли сбудутся.

В настоящее время в большинстве развитых стран наблюдается противоположность массовой безработицы. Центральные банки повышают процентные ставки, потому что существует слишком много рабочих мест, что является эвфемизмом для недостаточного количества людей. Другими словами, компании пытаются нанять людей, но не могут найти их в достаточном количестве. Отсюда рост инфляции, рост заработной платы и экономика полной занятости.

В обозримом будущем это не изменится. В то время как уровень рождаемости падает, люди живут дольше на пенсии, что увеличивает то, что экономисты называют коэффициентом демографической нагрузки (количество неработающих людей всех возрастов, деленное на количество людей кто делает). Между тем, нам по-прежнему нужны человеческие руки для таких важных задач, как пополнение запасов на полках супермаркетов или сбор фруктов с фермы.

А как насчет ноутбуков? Они не в опасности? Не совсем. На момент написания статьи нам не удалось научить компьютеры грамотно просматривать веб-сайты и взаимодействовать с ними. В настоящее время не существует ИИ, способного решать даже тривиальные задачи, такие как поиск профилей в LinkedIn или управление графической операционной системой. Что бы ни говорили вам интернет-лидеры мнений, ChatGPT ничего из этого сделать не может.

Деловой мир уже несколько десятилетий предсказывает массовые увольнения из-за автоматизации. И хотя они могли не осознавать этого сознательно, всегда присутствовал элемент принятия желаемого за действительное. Потому что на самом деле, какой генеральный директор на каком-то уровне не мечтает о парке хорошо работающих, бесплатных машин, чтобы сократить свои операционные расходы? Но эти надежды так и не оправдались на практике.

Поддельный риск III: контроль над разумом и пропаганда

Самая реальная проблема, связанная с ИИ, заключается в том, что большое количество изощренных, политически мотивированных сообщений может попасть в Интернет. Это может быть мотивировано национальной политикой или геополитикой и поставить под угрозу социальную сплоченность и стабильность.

Теперь — если такие компании, как Google, Microsoft, Twitter и Meta, станут привратниками искусственного интеллекта, такие сценарии вероятны. В конце концов, эти компании уже контролируют каналы сбыта  — дают им контроль и над производством в промышленных масштабах, и у них есть все необходимое, чтобы создавать проблемы.

Однако дьявол кроется в деталях, и в итоге такой сценарий вряд ли развернется.

В последние годы дистрибьюторы онлайн-СМИ столкнулись с невероятными препятствиями и проблемами. Законодатели США и Евросоюза все смелее требуют ограничений на обмен данными, просят большей прозрачности в деятельности медиакомпаний.

Тем временем миллионы людей стали с подозрением относиться к платформам социальных сетей и сомневаются в их ценности. В этих обстоятельствах и с таким уровнем недоверия маловероятно, что какая-либо медиакомпания будет склонна к выполнению гнусных планов ИИ, по крайней мере, в ближайшем будущем.

Если бы мы отказали этим компаниям в привилегированном статусе с ИИ, это, безусловно, помогло бы снизить этот риск. Мы не должны предоставлять им регулятивные рвы и привилегии. Но в любом случае, пока риск есть, с точки зрения вероятностей он маловероятен.

Куда двигаться дальше?

Итак, если не это, каковы реальные риски ИИ?

Эта статья получилась намного длиннее, чем я предполагал. Я также хотел взглянуть на менее драматичные, но более вероятные риски, которые я вижу в ИИ, о которых вы, вероятно, нигде не читали.

Но на следующей неделе мне придется написать об этом отдельной статьей. Если вам интересно ее прочитать, подпишитесь на меня на Medium, чтобы получать уведомления, когда она будет опубликована.

Если вам понравилась эта статья, посетите нас на Sharestep. Sharestep позволяет преобразовать знания о мире в конкретные инвестиционные возможности.

Например, вы можете запросить платформу Sharestep с такими подсказками, как «экзистенциальный риск» или «автоматизация рабочих мест», и мгновенно получить анализ инвестиций.

Кроме того, присоединиться можно бесплатно!

Как всегда, спасибо за чтение, и увидимся в следующий раз!