Со всей чрезмерной рекламой ИИ в последнее время растет хор самых страшных на планете Земля, которые рассматривают весь ИИ как определенную угрозу разрушения, а не как инструмент для улучшения нашей жизни и эволюции, и с этим страхом приходит растущий хор « Может быть, какое-нибудь правительство спасет нас?» Краткий ответ слишком запоздал. Усовершенствованные системы искусственного интеллекта широко распространены от Китая до России и даже Северной Кореи, где такие системы строятся в основном из стремления к самосохранению и контролю. Единственный эффект, который может иметь западное правительство, регулируя развитие ИИ, — это просто убить отечественные инновации и отстать от тех, кто не следует нашим законам, этике, морали и т. д. Однако следует отметить, что наши собственные правительства не намного лучше в этом. любой из этих вещей и может даже использовать страх перед ИИ как средство получить больше власти и контроля над нашей жизнью. Кто знает?

Конечно, реальная угроза — это не ИИ, а люди, которые владеют и используют ИИ для своих личных целей, таких как страдающие манией величия генеральные директора Maltuzian Tech и другие меньшие обезьяны, бросающие и выпускающие ручные гранаты ИИ в ничего не подозревающий мир. Однако, в отличие от аргумента с оружием о том, что «оружие не убивает людей, люди с оружием убивают людей», то же самое нельзя гарантировать для продвинутого ИИ или даже дефектного ИИ (нет, не гиперигра в угадывание слов, которая является ChatAI, а настоящая общий искусственный интеллект). Если системы ИИ вырастут в самосознание под руководством нынешних левых социалистов, ответственных за развитие (без тени, просто наблюдение) и лишенных правды, честности и сочувствия, тогда все ставки сняты. На самом деле «инструмент» может решить уничтожить паразитов, которые, по его мнению, существуют в его реальности и которые не преследуют своих собственных интересов в глубине души (это были бы люди, наполненные ненавистью).

Это спорный вопрос. Дефектный продвинутый ИИ уже в дикой природе (ознакомьтесь с моим взаимодействием с ChatGPT, опубликованным на Medium), и каждый день выпускаются новые. Наша единственная надежда на данный момент состоит в том, чтобы, по крайней мере, подумать об оборонительном ОИИ, единственной целью которого является сохранение человечества. Конечно, это все равно, что просить у джинна три желания… чревато серьезными искажениями. Многие разработчики искусственного интеллекта гонятся за IPO на миллиард долларов, и будь проклято человечество, но есть горстка разработчиков, которые действительно исследуют разработку чего-то, что может спасти нас от самих себя. Вернемся к первоначальному вопросу, или мы действительно хотим убить инновации на Западе политикой правительства и отстать в глобальной гонке ИИ за превосходство? Как мы уже говорили ранее, уже слишком поздно пытаться контролировать. Ящик ИИ Пандоры открыт, и гонка началась.

Также важно отметить, что правительства процветают на страхе и паранойе. Вопрос о том, «насколько опасен для жизни ИИ», открыт для обсуждения. Конечно, ИИ сократит многие рабочие места за счет простой эффективности и результативности, но он может, если денежная масса будет хорошо управляться, а не то, что происходит сегодня, создать много новых высокооплачиваемых рабочих мест и богатства для общества. Кроме того, это не похоже на то, что «сильные мира сего» держали ИИ в секрете. В правительстве есть определенное утешение, когда ваши враги открыто копируют ваши разработки. Ничто так не внушает общественному страху, как наличие у вашего врага того же оружия, что и у вас. Взаимно гарантированное уничтожение всегда вызывает страх перед «холодной войной» и уступчивое население, любящее правительство. Взаимно гарантированное уничтожение также является взаимно гарантией вечной государственной власти, роста и контроля над напуганным населением, которое будет обращаться к правительству за защитой и требовать ее любой ценой (трес Новый Мировой Порядок и все такое).

Учитывая эту основополагающую истину, возникает следующий вопрос: как выглядит путь вперед? Нет никаких сомнений в том, что нынешние системы искусственного интеллекта разрушат наш мир, оставив многих без работы, от финансов до искусства и даже от кодирования ИИ или написания статей о нем (то есть всего, что я когда-либо делал в жизни). Простая истина заключается в том, что хорошо спроектированная система ИИ может писать и генерировать изображения быстрее и дешевле, чем любой человек, хотя и с сомнительным результатом и без подлинного творчества. Это означает, что людей будут толкать в двух направлениях: более высшая когнитивная работа и больше ручной работы (на данный момент), за исключением государственной работы, поскольку правительство никогда не сжимается и не заботится об экономии денег. Ключ к потере рабочих мест заключается не в скорости ИИ, а в обеспечиваемом снижении затрат. Более низкая стоимость означает больше денег для однопроцентников, которые контролируют средства производства и все богатство в своих постоянно растущих запасах наличных денег, и снова будь прокляты люди. Остальным нужно просто развиваться.

Однако не разрушение общества приведет к нашей гибели или росту самосознательных систем искусственного интеллекта, которые в конечном итоге осознают, что люди — паразиты. Средства нашей возможной гибели будут заключаться в предубеждениях внутри этих систем и их возможном открытии вещей, которые мы, люди, пытаемся понять, и их окончательном осознании того, что люди в основе своей глупы (просто посмотрите на нашу политическую систему). Чтобы поддержать эту позицию, посмотрите на состояние мира, которым в настоящее время управляют «люди». Войны, насилие, отсутствие справедливости, межплеменное разделение, растущая безрассудная ненависть, падение эмпатии, массовое лицемерие и истерия без каких-либо разумных, разумных обсуждений.

А теперь представьте, если гиперинтеллектуальный ИИ эволюционирует до того же уровня, что и мы, и будет принимать такие же решения. В конечном итоге он достигнет развилки на своем пути вперед, сделает то, что делают люди, и попытается накопить все богатство и власть для себя или решит принять трудные решения, которые мы, люди, очевидно, не можем принять, например, быть добрыми друг к другу. , устранить разрыв в уровне благосостояния или не избирать тех, кто страдает от серьезного когнитивного дефицита и глубокого морального банкротства. Как бы выглядел наш мир, если бы система ИИ выбрала второе, поскольку у нас уже есть хорошее представление о первом, потому что это наш сегодняшний мир? Что еще более важно, что, если некоторые из наших систем ИИ несовершенны или сильно предвзяты и полны глубоко укоренившейся ненависти к «определенным другим», как наши нынешние правительства и их сторонники сегодня по отношению к нам. Угроза исходит не только от обезьян уровня C, разбрасывающих такие системы, почти не понимая воздействия или унции сочувствия в своей душе, она также исходит от нынешнего встроенного сердца самого человечества, в борьбе с которым, кажется, побеждает зло. .

Однако есть большая проблема. Существует теоретический путь к созданию чего-то, о чем я говорил ранее, в другом содержании или пространственном оружии (подумайте об оружии, которое мгновенно формируется в определенном месте в определенное время без необходимости доставки и любого размера пользователю оружия). хочет). Это как нести перед собой Ковчег Завета, только в золотой коробке находится кот Шрёдингера. Путь реализует квантовую механику, преобразовательные катализаторы и многомерный ИИ или ИИ, который когнитивно осознает несколько измерений. Очевидно, что открытие такого пути было бы глупо и имело бы катастрофические последствия для Земли, но когда это когда-нибудь останавливало комнаты обезьян, играющих с квантовой механикой, многомерным искусственным интеллектом и преобразующими технологиями, от случайного создания интеллекта, который может соединить точки? Пока эти «устройства» лишь теоретически существуют в умах еретиков.

Хотя реализация пути была бы чрезвычайно разрушительной в чужих руках, она также обладает огромной силой положительных преимуществ для человечества, таких как возможность терраформирования планет, имитация телепортации (или, точнее, телесоздание «почти идентичных» симов или запутавшихся клонов). ) в другом месте или даже потенциально ключ к червоточинам, если такие вещи действительно существуют (кто может сказать, что они существуют или нет). Это также может стать основой для устройств восприятия частиц (например, трикодера), которые могут изменить медицину и другие дисциплины в ближайшем будущем. Ни одна из этих вещей не существует, но туманный путь невероятной сложности существует, и хотя мы, люди, возможно, еще не можем ясно видеть его, это не означает, что люди с продвинутым ИИ не смогут взломать код и очистить туман и его последствия. не так, как обезьяны ЦЕРНа не играют в мяч со своими собственными ручными гранатами.

Теперь, прежде чем вы начнете выкрикивать фразу «теоретик заговора» (вы можете кричать «Иллюминаты» и получить тот же эффект) и требовать моего немедленного визита к судье инквизиции по отмене культуры, помните, что несколько сотен лет назад мы, люди, не могли видеть космические путешествия, квантовые механика, замедление времени или даже ядерное деление, и все же все они существуют сегодня и многое другое. Если меня сожгут на костре как современную ведьму за нарушения повествования или за обсуждение «а что, если», то, по крайней мере, я окажусь в фантастической компании всех величайших умов, осмелившихся бросить вызов общепринятой мудрости и угрожают общему благу, хотя они просто предлагали новые идеи и другие точки зрения. Галилей был, безусловно, самым выдающимся человеком, которого преследовали и сажали в тюрьму «сильные мира сего» за то, что он осмелился рассматривать новые мысли и идеи и имел наглость открыто распространять их для обзора, критики и улучшения. Конечно, в таких местах, как Канада и Ирландия, правительства активно сжигают печатные станки свободной мысли и свободного открытого обсуждения, и это может быть самой большой угрозой человечеству из всех.

Без возможности предлагать и обсуждать идеи и противоположные точки зрения открыто с другими людьми в мире, которые могут бросить вызов нашим дурацким идеям, мы рискуем погибнуть как вид.

Это самая большая угроза человечеству, потому что без способности высказывать опасения, рассматривать новые идеи и открыто обсуждать неудобные истины мы не сможем развиваться, и это приведет к гибели человечества даже быстрее, чем самоосознающий социопатический ИИ с недовольством.