Что произошло на этой неделе в AI by Louie

На этой неделе мы были рады увидеть две новые разработки в области ИИ за пределами области НЛП. Последняя разработка от Meta AI включает в себя обнародование своего приложения-симулятора Open Catalyst, которое только что было выпущено в качестве демоверсии. Используя возможности искусственного интеллекта, это приложение может прогнозировать реакционную способность материала катализатора с удивительной скоростью, превосходя существующие методы почти в 1000 раз. Команда считает, что эта технология может значительно ускорить открытие рентабельных материалов. Хотя мы думаем, что материаловедение является более сложным предметом для машинного обучения по сравнению с белками (и AlphaFold), мы видим большой потенциал для подобных моделей, чтобы помочь исследователям искать потенциально интересные материалы в космосе. В будущем мы также ожидаем увидеть выпуск моделей, которые будут способствовать поиску сверхпроводников, что актуально на этой неделе, когда в центре внимания был потенциальный прорыв!

В другом захватывающем объявлении Google представила модель Robotics Transformer 2 (RT-2), которую они называют первой в мире моделью видение-язык-действие (VLA). Сеть проходит обучение с использованием текста и изображений, извлеченных из Интернета, что позволяет ей напрямую производить действия робота в качестве выходных данных с небольшим объемом обучающих данных робота. Модель демонстрирует замечательную способность понимать сложные команды, такие как выбросить мусор. Это достигается путем сложных рассуждений. Например, осознание того, что банановая кожура становится мусором после того, как ее съедят, и автономное понимание концепции выбрасывания мусора, даже без специальной подготовки к конкретной задаче. Во время испытаний модель РТ-2 продемонстрировала значительное улучшение производительности в невиданных сценариях, достигнув вдвое большей эффективности по сравнению с предыдущей версией.

Несмотря на постоянный поток захватывающих новостей в НЛП, приятно наблюдать за двумя столь же захватывающими достижениями в других приложениях ИИ на этой неделе, особенно в областях робототехники и материаловедения. Мы рады видеть, что недавние прорывы и волна инвестиций в НЛП начинают ускорять прогресс в других областях.

– Луи Питерс, соучредитель и генеральный директор компании Towards AI

Горячие новости

  1. Познакомьтесь с FreeWilly, нашими большими и могучими моделями, отлаженными до мелочей

Stability AI и его лаборатория CarperAI выпустили Stable Beluga 1 и его преемника Stable Beluga 2 (ранее под кодовым названием FreeWilly). В Stable Beluga 1 используется оригинальная базовая модель LLaMA 65B, которая была доработана с использованием методов Supervised Fine-Tune (SFT). Точно так же Stable Beluga 2 использует базовую модель LLaMA 2 70B. Обе модели находятся в открытом доступе под некоммерческой лицензией.

2. Stability AI анонсирует Stable Diffusion XL 1.0

Stability AI объявила о выпуске Stable Diffusion XL (SDXL) 1.0, последней и самой продвинутой версии своего флагманского набора моделей преобразования текста в изображение. SDXL — это модель изображения с открытым доступом с ошеломляющим конвейером ансамбля моделей с 6,6 миллиардами параметров, демонстрирующая значительные улучшения в цвете, контрасте, освещении и тенях.

3. Stack Overflow анонсирует OverflowAI

Stack Overflow интегрирует генеративный ИИ в свою платформу с помощью OverflowAI. Это включает в себя семантический поиск и персонализированные результаты с использованием векторной базы данных. Кроме того, они расширяют возможности поиска на разных платформах и внедряют функцию приема корпоративных знаний для Stack Overflow for Teams.

4. Представляем языковую модель Bittensor — современную модель параметров 3B для мобильных и пограничных устройств

Opentensor Foundation и Cerebras рады представить Bittensor Language Model (BTLM), новую современную языковую модель с 3 миллиардами параметров, которая обеспечивает непревзойденную точность в дюжине тестов ИИ. Он эффективно работает на мобильных и периферийных устройствах с ограниченным объемом оперативной памяти, что снижает потребность в централизованной облачной инфраструктуре.

5. OpenAI запускает AI-детектор текста из-за «низкой точности

OpenAI решила отказаться от своего классификатора ИИ из-за его низкой точности при обнаружении текста, сгенерированного ИИ. Быстрое развитие больших языковых моделей усложнило эффективную идентификацию функций или шаблонов.

Пять 5-минутных чтений/видео, чтобы вы продолжали учиться

  1. История LLM с открытым исходным кодом: лучшие базовые модели

Эта статья является второй частью серии из трех статей об истории LLM с открытым исходным кодом. Он охватывает такие темы, как первые дни LLM с открытым исходным кодом, текущая революция в создании лучших базовых моделей, а также текущие и будущие тенденции в LLM с открытым исходным кодом.

2. Создание приложений для генеративного ИИ с помощью Gradio

Hugging Face и DeepLearning.ai запустили новый краткий курс по созданию генеративных ИИ-приложений с помощью Gradio. Курс посвящен созданию удобных приложений с использованием языковых моделей с открытым исходным кодом, с проектами, варьирующимися от суммирования текста до анализа изображений и создания изображений.

3. Создайте генератор диаграмм с искусственным интеллектом, который адаптируется к любому типу набора данных, всего за 50 строк

Это руководство по разработке автоматизированного генератора диаграмм. С помощью этого руководства разработчики могут легко создавать генераторы диаграмм AI, используя GPT-3.5 или GPT-4 с Langchain, что требует всего 50 строк кода.

4. Автоматизация веб-исследований

В этой статье рассматривается развитие агентов веб-исследований. Подход включает использование LLM для создания поисковых запросов, выполнения поиска, очистки страниц, индексации документов и поиска наиболее релевантных результатов для каждого запроса.

5. Создание автоматического генератора протоколов собраний с помощью Whisper и GPT-4

В этом руководстве рассматривается разработка инструмента создания протоколов совещаний, который использует Whisper и GPT-4 для эффективного подведения итогов обсуждений, извлечения важных деталей и анализа настроений.

Бумаги и репозитории

  1. karpathy/llama2.c: Inference Llama 2 в одном файле на чистом C

Эндрю Карпати (Andrew Karpathy) выпустил учебную реализацию логического вывода LLaMA 2 на чистом C. Этот проект позволяет обучить архитектуру LLM LLaMA 2 в PyTorch, а затем загрузить веса в один файл C для эффективного логического вывода.

2. Универсальные и переносимые атаки на выровненные языковые модели

В недавнем исследовании изучается автоматическое построение состязательных атак на языковые модели как с открытым, так и с закрытым исходным кодом, что делает их уязвимыми для вредоносных команд. Эти атаки также переносятся на широко используемых чат-ботов, что вызывает опасения по поводу эффективного исправления этих уязвимостей.

3. FLASK: Детальная оценка языковой модели на основе наборов навыков выравнивания

В этом документе представлен FLASK, протокол оценки, специально разработанный для оценки эффективности LLM. Он разбивает оценки на 12 различных наборов навыков, что позволяет проводить подробный анализ производительности модели на основе конкретных навыков, таких как логическая надежность, фактологичность и понимание.

4. Реальный WebAgent с планированием, длительным пониманием контекста и синтезом программ

WebAgent, агент, управляемый LLM, использует Flan-U-PaLM и HTML-T5 для улучшения автономной веб-навигации и выполнения задач на реальных веб-сайтах. Разбивая инструкции, обобщая HTML-документы и создавая программы Python, он достигает 50-процентного увеличения показателей успеха по сравнению с предыдущими моделями.

5. WebArena: реалистичная веб-среда для создания автономных агентов

WebArena — это реалистичная веб-среда, которая позволяет автономным агентам развивать свои навыки в задачах, связанных с электронной коммерцией, социальными форумами, разработкой программного обеспечения и управлением контентом. Он обеспечивает эталонные показатели для оценки выполнения задач и подчеркивает необходимость улучшенных агентов, поскольку даже продвинутые модели, такие как GPT-4, имеют показатель успеха всего 10,59%.

Понравились эти статьи и сводки новостей? Получайте ежедневный обзор на почту!

Раздел сообщества Learn AI Together!

AI4 2023: ведущая в отрасли конференция по искусственному интеллекту

Напоминаем, что вы можете присоединиться к нам на Ai4 2023, ведущей в отрасли конференции по искусственному интеллекту, которая пройдет в Лас-Вегасе 7–9 августа в MGM Grand. Узнайте больше о том, как рост Ai4 отражает внедрение ИИ в отрасли, и присоединитесь к более чем 2200 лидерам ИИ, 240 спикерам и 100 передовым экспонатам ИИ. Подать заявку на бесплатный пропуск.

Дата: 7–9 августа 2023 г. (MGM Grand, Лас-Вегас)

Мем недели!

Мем поделился archiesnake

Избранный пост сообщества из Discord

Operand поделился своей библиотекой Python с открытым исходным кодом для интеграции агентов, предназначенной для дополнения существующих библиотек, таких как HF Agent API и LangChain. Библиотека позволяет подключать агентов к программным системам и пользователям-людям, определяя действия, обратные вызовы и политики доступа, что упрощает интеграцию, мониторинг и контроль ваших агентов. Агентство обрабатывает детали связи и позволяет обнаруживать и вызывать действия между сторонами. Проверьте это на GitHub и поддержите другого члена сообщества. Поделитесь своим отзывом и тем, как вы его используете, в теме здесь.

AI-опрос недели!

Присоединяйтесь к обсуждению в Discord.

TAI Кураторский раздел

Статья недели

LangChain 101: Часть 1. Создание простого приложения для вопросов и ответов от Иван Резников

LangChain — это мощная платформа для создания приложений, которые генерируют текст, отвечают на вопросы, переводят языки и выполняют множество других задач, связанных с текстом. Эта статья знаменует собой начало курса LangChain 101. Начиная с этой статьи, автор обсуждает концепции, методы и опыт, показывая, как создавать собственные приложения LangChain.

Наши обязательные к прочтению статьи

Современное НЛП: подробный обзор. Часть 3: BERT от Abhijit Roy

Забудьте о 32 КБ GPT4: LongNet имеет контекст с миллиардом токенов от «Dr. Мандар Кархейд, доктор медицины. Кандидат наук."

Документ Graph Attention Networks с иллюстрациями и реализацией PyTorch от Ebrahim Pichka

Если вы заинтересованы в публикации с помощью Towards AI, ознакомьтесь с нашими рекомендациями и зарегистрируйтесь. Мы опубликуем вашу работу в нашей сети, если она соответствует нашим редакционным политикам и стандартам.

Предложения о работе

Инженер-программист III (Drupal) @Clarity Innovations, Inc. (Удаленно)

Инженер-программист распределенных систем @INSHUR (Брайтон, Великобритания)

Стажер — Стажеры по разработке программного обеспечения — ACI 01 @Activate Interactive Pte Ltd (Сингапур)

Инженер по машинному обучению (риск) @SHIELD (Сингапур)

Инженер по машинному обучению @Robotec.ai sp. о.о. (Варшава, Польша/ Фрилансер)

Инженер по машинному обучению, Fast Optimized Inference @Hugging Face (US Remote)

Хотите поделиться здесь вакансией? Обращайтесь по адресу [email protected].

Если вы готовитесь к следующему собеседованию по машинному обучению, обязательно посетите наш ведущий веб-сайт для подготовки к собеседованию, confetti!