Наша непоколебимая вера в то, что светлое технологическое будущее не за горами, является проблемой!

Давным-давно

Прочтите как несколько лет назад, в первые дни моей карьеры, когда я работал в компании по производству бытовой техники, произошел захватывающий инцидент.

Моя команда привыкла подчиняться старшему менеджеру, который довольно упорно продвигал определенные вещи, особенно когда он что-то принял. Однажды он попросил нас подготовить отчет, в котором критические моменты должны быть выделены курсивом и цветным шрифтом, а затем мы должны были его распечатать и передать ему.

Единственная (большая) проблема заключалась в том, что мы использовали программу под названием « WordStar , и все, что у нас было, это матричный принтер! Для тех, кто не знает, это была программа текстового процессора на основе DOS (дисковая операционная система). Более того, мне не нужно объяснять, почему наличие матричного принтера было проблемой для данной задачи.

Наш очевидный ответ был - невозможно! Он не слушал; он продолжал подталкивать нас к тому, чтобы это произошло. Он настаивал, говоря что-то вроде - не пытайтесь меня обмануть, я знаю, что компьютер может все, и ваш босс обещал нам это при его покупке!

Итак, мы смотрели на нашего босса со смешанными чувствами, ожидая, когда он признает это (в конце концов, он обещал невозможное) и исправит это! В конце концов, он сделал кое-что за кулисами, что в конечном итоге спасло нас.

Однако этот инцидент произвел сильное впечатление на мое «зеленое я». Это был не только случай чрезмерных обещаний, но и тот, когда ожидания бизнеса были неуместными. После этого наши взаимодействия (с этим старшим менеджером) оставались полными трений, потому что в ходе этой битвы мы потеряли некоторое доверие.

Тогда и сейчас

Перенесемся к сегодняшнему дню, прошло почти двадцать лет, а мы здесь - все еще решаем подобные проблемы! Это похоже на дежавю, но почему?

По какой-то забавной причине люди все чаще полагают, что компьютеры лучше людей и могут творить чудеса. Более того, их предположение гласит, что люди иногда могут ошибаться, а машины - никогда! Это предположение ставит перед нами другой набор проблем.

Эти проблемы усугубляются по мере того, как компьютеры становятся все более распространенными и во многих отношениях участвуют в нашей повседневной жизни. Не нужно быть гением, чтобы сказать, что у компьютеров нет собственного мозга, не говоря уже об интеллекте или совести. Это разработчик инструктирует и учит компьютер - что делать. Если они сделают ошибку и плохо спроектируют и разработают код, это будет проблемой.

Если разработчики не тестируют свою разработку надлежащим образом, не используют аппаратное обеспечение некачественного качества, или если в понимании требований пользователя есть фундаментальные недостатки, компьютер будет работать плохо!

Так в чем проблема

Проблема не в новых технологиях, а в том, что они обещают светлое будущее. Наша непоколебимая вера в то, что светлое технологическое будущее не за горами, является проблемой!

Наша непоколебимая вера в то, что солнечное технологическое будущее не за горами, является проблемой!

Многие компании, я имею в виду старших ответственных менеджеров в этих компаниях, все еще чувствуют и верят, что Интернет вещей, искусственный интеллект или автоматизация решат их проблемы навсегда, только чтобы оказаться в затруднительном положении. разный вкус супа пост-реализация. Как вы думаете, почему это может быть так?

ЭТО не решение поведенческих проблем!

На мой взгляд, это начинается с повышения ожиданий на ранней стадии процесса усыновления, когда лицо, отвечающее за такие инициативы, демонстрирует только одну сторону истории. Обычно они не рассказывают обратную сторону истории либо потому, что не знают (отсутствие полных знаний), либо потому, что имеют к этому особый интерес (часто бывает с поставщиками конкретной технологии). Здесь очень важно признать тот факт, что мы не знаем того, чего не знаем.

Эта проблема еще больше усугубляется нереалистичными ожиданиями от технологии, а также неспособностью заранее определить критерии приемлемости. Если заранее не установить такие стандарты, это приведет только к эффекту пожертвования. Команды внедрения пытаются обосновать (намного позже), что все, что они разработали, должно быть использовано, потому что они так много работали над этим; Хуже всего то, что они пытаются модифицировать критерии приемки только для того, чтобы это произошло!

Поэтому обязательно, что у бизнеса нет устойчивых целей (прочтите критерии приемлемости) и не хватает средств. Эта ситуация приводит к несколько неконтролируемой ситуации. Команды разработчиков могут сказать вам, что машина со временем научится, но не скажут, когда и как ее улучшат.

Внесение мусора всегда приводит к появлению мусора вне зависимости от того, сколько лет вы занимаетесь этим и насколько умна машина!

Знай свои пределы

Ни одна машина или ИИ не могут отличить правильное от неправильного; он может выбирать только то, что популярно, как он видит из изученных данных.

К сожалению, существует фундаментальная проблема с искусственным интеллектом; он учится на передаваемых ему данных. Не имеет значения, под присмотром или без присмотра. Данные должны быть хорошими и сбалансированными. Если мы хотим научить машину на примерах, они должны быть хорошими.

Если по какой-то причине эти (чистые данные) не могут быть гарантированы, то тестирование разработанного ИИ должно быть безупречным. Если в тестировании есть пробелы и данные ужасны, плохой ИИ возрастет. Он не только будет содержать мусор, чтобы избавиться от него, но и сделает это гораздо быстрее и в больших масштабах. Никто этого не захочет. Более того, поэтому нам необходимо знать эти ограничения и соответствующим образом обращаться с новыми технологиями.

Есть несколько сложных аспектов, с которыми машина искусственного интеллекта не может справиться. Мы не можем научить компьютер таким добродетелям, как справедливость, мораль и этика, и, следовательно, Машина не может делать конкретные критические призывы на их основе.

Многие узкие программы ИИ сами по себе не безупречны. Эти программы просто пытаются имитировать человеческое поведение (что само по себе иногда вызывает сомнения). Пока выбор черно-белый, он работает хорошо, но вскоре он сбрасывается, когда проблемы переходят в серую зону. Плохо спроектированные программы обычно делают случайный (часто неправильный) выбор, что обходится предприятиям в кучу денег. Многие компании считают, что это, возможно, приемлемый уровень ошибок, что иногда может быть необоснованным предположением, особенно когда они не могут установить критерии приемлемости перед началом пути.

Однако с точки зрения общей картины только узкий ИИ является меньшим из двух зол. Дальнейшее означало бы, что мы должны определить и систематизировать множество серого вещества - а у людей есть пределы!

Какие выводы

Конечно, можно много говорить об обучении машин морали, этике, работе в серых зонах и многом другом. Однако мы не можем дождаться, когда все огни станут зелеными, и мы должны продолжать двигаться вперед, учиться и импровизировать.

Однако самый важный вывод на данный момент - оставаться позитивно скептически настроенным, всегда держать шляпы чувствительности и применять технологию с недоверием.

Машины совершают ошибки, как и люди, и они будут делать их и в будущем. Компании должны принять этот факт и знать, что машины, как и люди, также нуждаются во внимании, переобучении и плане повышения производительности, прежде чем они снова начнут работать.

Компании должны убедиться, что, как и люди, машины постепенно обучаются и проходят тщательные испытания, прежде чем возлагать на них дополнительные обязанности. Любой сбой в работе машин должен быть устранен, причем в несколько большей степени, чем у людей.

Я также предлагаю, чтобы компании создали или увеличили свой существующий отдел HR до отдела HAIR (Человеческие ресурсы и ресурсы искусственного интеллекта). Департамент должен разработать соответствующие политики для управления этими ресурсами ИИ, как вы делаете это для людей. На данный момент эта идея может показаться немного глупой, но направление, в котором мы движемся, вскоре будет диктовать это. Движение к прозрачности ИИ набирает обороты.

Наконец, не стоит увлекаться и думать, что только потому, что у нас есть крутые технологии, мы можем использовать их для решения любой проблемы, которая нас окружает. Новые технологии - это новые молотки, позвольте нам не рассматривать все проблемы как гвозди и не спешить в зарождающееся будущее. В наши дни сложно исправить стратегические и технологические ошибки.

Иногда лучше иметь дело с людьми, чем с машинами, главное - здравомыслие!

Эта история была впервые опубликована на моей странице в LinkedIn здесь: https://www.linkedin.com/pulse/when-working-emerging-technologies-sanity-key-anand-tamboli/

Об авторе: Я специалист по трансформации, помогаю компаниям и частным лицам обрести возможности и стать самодостаточными всего за шесть месяцев. Я помогаю людям разумно использовать новые технологии и адаптироваться к меняющемуся будущему.

Свяжитесь со мной в LinkedIn.