Если вы похожи на меня, вам, вероятно, трудно уследить за всеми новыми модными словечками и аббревиатурами, которые появляются в мире технологий. Машинное обучение, искусственный интеллект, глубокое обучение, нейронные сети, обработка естественного языка… список можно продолжать и продолжать. Но не волнуйтесь, вы не одиноки. На самом деле, согласно недавнему опросу, только 17% американцев могут правильно определить, что такое искусственный интеллект. И это проблема.

Почему? Потому что ИИ — это не просто какая-то футуристическая концепция, которая волнует только ботаников и фанатов научной фантастики. Это реальность, которая меняет каждую отрасль и каждый аспект нашей жизни. Осознаете вы это или нет, но вы уже используете ИИ каждый день. Когда вы задаете вопрос Siri или Alexa, когда просматриваете ленту Facebook или Instagram, когда делаете покупки в Интернете или смотрите Netflix, когда используете Google Maps или Uber, вы взаимодействуете с искусственным интеллектом. И это только вершина айсберга.

ИИ также стоит за некоторыми из самых важных инноваций и прорывов нашего времени. Он помогает врачам диагностировать болезни, фермерам выращивать урожай, учителям обучать студентов, юристам проверять контракты, художникам создавать музыку, а ученым открывать новые планеты. Это также помогает нам решать некоторые из самых серьезных проблем, стоящих перед человечеством, таких как изменение климата, бедность, голод и пандемии.

Итак, что это значит для вас? Это означает, что если вы хотите добиться успеха в новой экономике ИИ, вам необходимо ознакомиться с базовой терминологией и понятиями машинного обучения и искусственного интеллекта. Вам не нужно становиться опытным программистом или инженером по машинному обучению, но вам необходимо понимать, что может и чего не может делать ИИ, как он работает и как влияет на вас и вашу карьеру.

Вот почему я создал этот пост в блоге: чтобы дать вам быстрое и простое введение в наиболее важные термины и концепции машинного обучения и искусственного интеллекта. К концу этого поста вы сможете уверенно говорить о разработках и методах ИИ с вашими новыми знаниями и уверенностью. Вы также сможете определить возможности и проблемы, которые ИИ представляет для вашей отрасли и профессии. И самое главное, вы сможете принимать обоснованные решения о том, как использовать ИИ для собственной выгоды и роста.

Итак, приступим!

Список

Я вручную отобрал их как наиболее важные и актуальные на данный момент времени, а также те, которые носят более общий характер, чем специфичные для определенных областей машинного обучения. Я могу обновить этот список по мере его (несомненно) изменений. Если я пропустил что-то, что, по вашему мнению, должно быть включено, пожалуйста, оставьте термин и краткое определение в комментариях, и мы все станем умнее!

Я старался, чтобы определения были очень «краткими и лаконичными» (по каждому из них написаны целые книги), но я призываю вас погрузиться глубже, если какое-либо из них вас заинтересует.

  1. Алгоритм. Набор правил или инструкций, которым следует модель машинного обучения для изучения закономерностей в данных.
  2. Искусственный интеллект (ИИ): широкая дисциплина создания интеллектуальных машин.
  3. Обратное распространение: метод, используемый в искусственных нейронных сетях для расчета градиента, необходимого для расчета весов, которые будут использоваться в сети.
  4. Смещение. Упрощающие допущения, сделанные моделью для упрощения аппроксимации целевой функции.
  5. Большие данные. Большие объемы данных, с которыми не может справиться традиционное программное обеспечение для обработки данных.
  6. Двоичная классификация: тип задачи классификации, при которой каждый входной образец классифицируется по одной из двух возможных категорий.
  7. Boosting: ансамблевый метаалгоритм машинного обучения, предназначенный, в первую очередь, для уменьшения предвзятости, а также дисперсии в обучении с учителем.
  8. Категорические данные: данные, которые можно разделить на несколько категорий, но без порядка или приоритета.
  9. Классификация. Тип модели машинного обучения, которая выводит одну из конечного набора меток.
  10. Кластеризация. Задача разделения совокупности или точек данных на несколько групп таким образом, чтобы точки данных в одних и тех же группах были более похожи на другие точки данных в той же группе, чем в других группах.
  11. Сверточная нейронная сеть (CNN). Тип искусственной нейронной сети, использующий сверточные слои для фильтрации входных данных для получения полезной информации.
  12. Перекрестная проверка: процедура повторной выборки, используемая для оценки моделей машинного обучения на ограниченной выборке данных.
  13. Интеллектуальный анализ данных: процесс обнаружения закономерностей в больших наборах данных с использованием методов на стыке машинного обучения, статистики и систем баз данных.
  14. Предварительная обработка данных. Процесс преобразования необработанных данных в удобочитаемый формат для использования в модели машинного обучения.
  15. Набор данных: набор связанных наборов информации, состоящих из отдельных элементов, но компьютер может управлять ими как единым целым.
  16. Глубокое обучение: область машинного обучения, связанная с алгоритмами, вдохновленными структурой и функциями мозга, которые называются искусственными нейронными сетями.
  17. Деревья решений: инструмент поддержки принятия решений, использующий древовидную модель решений и их возможных последствий.
  18. Уменьшение размерности: процесс уменьшения количества рассматриваемых случайных переменных путем получения набора основных переменных.
  19. Обучение ансамблем: парадигма машинного обучения, при которой несколько моделей обучаются решать одну и ту же задачу и объединяются для получения лучших результатов.
  20. Эпоха: один полный проход по всему набору обучающих данных при обучении модели машинного обучения.
  21. Функция: отдельное измеримое свойство наблюдаемого явления.
  22. Разработка функций: процесс использования знаний предметной области для извлечения функций из необработанных данных с помощью методов интеллектуального анализа данных.
  23. Извлечение признаков: процесс сокращения количества ресурсов, необходимых для описания большого набора данных.
  24. Выбор функций: процесс выбора подмножества соответствующих функций для использования в построении модели.
  25. Градиентный спуск: алгоритм оптимизации, используемый для минимизации некоторой функции путем итеративного движения в направлении наискорейшего спуска, определяемого отрицательным значением градиента.
  26. Гиперпараметр: параметр, значение которого задается до начала процесса обучения.
  27. Несбалансированные данные: ситуация, когда количество наблюдений неодинаково для категорий в задаче классификации.
  28. K-Nearest Neighbors (K-NN): простой и удобный в реализации алгоритм машинного обучения с учителем, который можно использовать для решения задач как классификации, так и регрессии.
  29. Ядро: функция, используемая в машинном обучении для преобразования данных в определенную форму.
  30. Ярлык: окончательный результат, который вы получаете в выходном слое нейронной сети.
  31. Скрытая переменная: переменные в статистической модели, которые не наблюдаются напрямую, но выводятся или оцениваются на основе других наблюдаемых переменных.
  32. Линейная регрессия: статистический метод прогнозирования реальных результатов на основе одной или нескольких входных характеристик.
  33. Логистическая регрессия. Алгоритм классификации, используемый для прогнозирования бинарного результата на основе набора независимых переменных.
  34. Функция потерь: метод оценки того, насколько хорошо конкретный алгоритм моделирует заданные данные.
  35. Машинное обучение (МО): научное исследование алгоритмов и статистических моделей, которые компьютерные системы используют для выполнения задач без явных инструкций.
  36. Многоклассовая классификация: задача классификации с более чем двумя классами.
  37. Наивный байесовский метод. Метод классификации, основанный на теореме Байеса с предположением о независимости предикторов.
  38. Обработка естественного языка (NLP): область ИИ, которая дает машинам возможность читать, понимать и извлекать смысл из человеческих языков.
  39. Нейронная сеть: ряд алгоритмов, которые пытаются распознать лежащие в основе отношения в наборе данных.
  40. Нормализация: приведение значений, измеренных в разных шкалах, к общей шкале.
  41. Выброс: точка данных, которая значительно отличается от других подобных точек.
  42. Переобучение: ошибка моделирования, возникающая, когда функция слишком точно соответствует ограниченному набору точек данных.
  43. Параметр: внутренняя характеристика или свойство модели, которое алгоритм обучения использует для прогнозирования.
  44. Персептрон: простейшая форма нейронной сети, используемая для бинарной классификации.
  45. Точность: количество истинных положительных результатов, деленное на количество истинных положительных и ложных положительных результатов. Это мера точности классификатора.
  46. Анализ основных компонентов (PCA): статистическая процедура, использующая ортогональное преобразование для преобразования набора наблюдений возможно коррелированных переменных в набор значений линейно некоррелированных переменных.
  47. Случайный лес: ансамблевый метод обучения для классификации, регрессии и других задач, основанный на построении множества деревьев решений во время обучения.
  48. Отзыв: количество истинных положительных результатов, разделенное на количество истинных положительных результатов и количество ложноотрицательных результатов. Это мера полноты классификатора.
  49. Регрессия: набор статистических процессов для оценки отношений между переменными.
  50. Обучение с подкреплением (RL): область машинного обучения, связанная с тем, как программные агенты должны выполнять действия в среде, чтобы максимизировать некоторое понятие кумулятивного вознаграждения.
  51. Регуляризация. Метод, используемый для предотвращения переобучения путем добавления дополнительного штрафа к функции потерь.
  52. ReLu (выпрямленная линейная единица): часто используемая функция активации в нейронных сетях и моделях глубокого обучения.
  53. RNN (рекуррентная нейронная сеть): тип искусственной нейронной сети, предназначенный для распознавания шаблонов в последовательностях данных, таких как текст, геномы, почерк или произнесенное слово.
  54. Полууправляемое обучение. Методы машинного обучения, включающие обучение с использованием небольшого количества размеченных данных и большого количества неразмеченных данных.
  55. SGD (стохастический градиентный спуск): простой и очень эффективный подход к подгонке линейных классификаторов и регрессоров под выпуклые функции потерь, такие как (линейные) машины опорных векторов и логистическая регрессия.
  56. Обучение с учителем. Тип модели машинного обучения, которая делает прогнозы на основе набора помеченных примеров.
  57. Машина опорных векторов (SVM): тип модели машинного обучения, используемый для классификации и регрессионного анализа.
  58. TensorFlow: библиотека программного обеспечения с открытым исходным кодом для машинного обучения и искусственного интеллекта.
  59. Анализ временных рядов. Методы, используемые для анализа данных временных рядов с целью извлечения значимой статистики и других характеристик данных.
  60. Перенос обучения: метод машинного обучения, при котором предварительно обученная модель используется в качестве отправной точки для решения другой, но связанной проблемы.
  61. Недостаточное соответствие: ошибка моделирования, возникающая, когда функция слишком слабо соответствует данным.
  62. Обучение без учителя. Тип модели машинного обучения, которая делает прогнозы на основе набора немаркированных примеров.
  63. Проверочный набор: подмножество данных, отведенных для корректировки гиперпараметров модели или для руководства при выборе модели.
  64. Переменная: любая характеристика, число или величина, которые можно измерить или подсчитать.
  65. Веса: параметры модели, полученные алгоритмом машинного обучения.
  66. XGBoost: программная библиотека с открытым исходным кодом, которая предоставляет платформу повышения градиента для C++, Java, Python, R и Julia.
  67. Zero Shot Learning: концепция машинного обучения, при которой модель может прогнозировать классы, которые не были замечены во время обучения.
  68. Автоэнкодер: тип искусственной нейронной сети, используемый для обучения эффективному кодированию входных данных.
  69. Пакетная нормализация: метод повышения производительности и стабильности искусственных нейронных сетей.
  70. Компромисс между смещением и дисперсией. Свойство модели, состоящее в том, что дисперсию оценок параметров по выборкам можно уменьшить, увеличив смещение в оценочных параметрах.
  71. GAN (генеративно-состязательная сеть): алгоритмическая архитектура, используемая в неконтролируемом обучении, в частности, для создания синтетических экземпляров данных, которые можно принять за реальные данные.
  72. Генетический алгоритм: метод решения задач оптимизации с ограничениями и без ограничений, основанный на естественном отборе — процессе, управляющем биологической эволюцией.
  73. Поиск по сетке. Подход к настройке параметров, который методично строит и оценивает модель для каждой комбинации параметров алгоритма, указанных в сетке.
  74. Вменение: процесс замены отсутствующих данных подставленными значениями.
  75. LSTM (долговременная кратковременная память): тип рекуррентной нейронной сети, способной изучать зависимость порядка в задачах прогнозирования последовательности.
  76. Многослойный персептрон (MLP): класс искусственных нейронных сетей с прямой связью.
  77. Горячее кодирование: процесс преобразования категориальных переменных данных, чтобы их можно было предоставить алгоритмам машинного обучения для улучшения прогнозов.
  78. Переобучение: ошибка моделирования, возникающая, когда функция слишком точно соответствует ограниченному набору точек данных.
  79. Полиномиальная регрессия. Тип регрессионного анализа, в котором взаимосвязь между независимой переменной x и зависимой переменной y моделируется как полином n-й степени.
  80. Квантовое машинное обучение: междисциплинарная область, объединяющая квантовую физику и машинное обучение.
  81. Q-Learning: метод обучения с подкреплением, используемый для поиска оптимальной политики выбора действий с использованием функции q.
  82. Регулярное выражение (RegEx): последовательность символов, образующая шаблон поиска. RegEx можно использовать для проверки того, содержит ли строка указанный шаблон поиска.
  83. Обучение с подкреплением: область машинного обучения, связанная с тем, как программные агенты должны выполнять действия в среде, чтобы максимизировать некоторое понятие кумулятивного вознаграждения.
  84. Последовательная модель. Тип модели, используемый в машинном обучении и состоящий из линейного набора слоев.
  85. Функция Softmax: функция, которая берет N-мерный вектор действительных чисел и преобразует его в вектор действительных чисел в диапазоне (0,1), который в сумме дает 1.
  86. State-Action-Reward-State-Action (SARSA): алгоритм изучения марковской политики процесса принятия решений, используемый в области машинного обучения с подкреплением.
  87. T-распределенное стохастическое вложение соседей (t-SNE): алгоритм машинного обучения для визуализации, основанный на стохастическом встраивании соседей, изначально разработанный Джеффри Хинтоном и его учениками.
  88. Одномерный анализ. Простейшая форма анализа данных. «Uni» означает «один», другими словами, ваши данные имеют только одну переменную.
  89. Дисперсия: статистическое измерение разброса между числами в наборе данных.
  90. Word2Vec: группа связанных моделей, которые используются для создания вложений слов. Эти модели представляют собой неглубокие двухслойные нейронные сети, обученные реконструировать лингвистические контексты слов.
  91. Ян ЛеКун: ученый-компьютерщик, внесший свой вклад в сверточные нейронные сети и другие области машинного обучения и вычислительной нейронауки.
  92. Z-оценка: количество стандартных отклонений, на которое значение необработанной оценки выше или ниже среднего значения того, что наблюдается или измеряется.
  93. Однократное обучение: проблема категоризации объектов, когда дается только один обучающий пример.
  94. Manifold Learning: класс неконтролируемых оценщиков для нелинейного уменьшения размерности.
  95. Автокодировщик шумоподавления. Тип автокодировщика, предназначенный для удаления шума из данных.
  96. Проклятие размерности: термин, который используется для описания сложности обучения моделей на данных с высокой размерностью (большое количество признаков).
  97. Совместная фильтрация. Метод, используемый некоторыми рекомендательными системами. В совместной фильтрации алгоритмы используются для автоматического предсказания интересов пользователя путем сбора предпочтений многих пользователей.
  98. Многозадачное обучение: тип машинного обучения, при котором несколько учебных задач решаются одновременно, используя общие черты и различия между задачами.
  99. Перцептивное хэширование (pHash). Метод преобразования мультимедийного контента (изображений, текста, видео) в управляемое хэш-значение.
  100. Генеративная модель. Тип модели машинного обучения, которая генерирует новые данные, аналогичные обучающим данным.

Это должно заставить вас начать! Если вам это понравилось, подпишитесь, чтобы получать последние материалы об искусственном интеллекте и инженерии! Ваше здоровье!