Nvidia выпустила инструмент для создания безопасных ИИ-моделей

Делитесь и голосуйте:

Компания Nvidia представила инструмент NeMo Guardrails, призванный помочь разработчикам обеспечить точность, уместность и безопасность генеративного ИИ.

NeMo Guardrails позволяет разработчикам применять три различных типа ограничений для своих языковых моделей (LLM). В частности, компании могут устанавливать «тематические барьеры», которые не позволят их приложениям обрабатывать нерелевантные запросы.

Например, чат-бот службы поддержки клиентов с помощью своего программного обеспечения будет отказываться отвечать на вопрос о погоде.

Компании также могут устанавливать ограничения, чтобы LLM получали точную информацию и подключались к безопасным приложениям.

Согласно Nvidia, NeMo Guardrails работает со всеми языковыми моделями, включая ChatGPT. Также в компании утверждают, что почти любой разработчик программного обеспечения может использовать инструмент.

«Nvidia сделала NeMo Guardrails […] с открытым исходным кодом, чтобы внести вклад в огромную энергию сообщества разработчиков и безопасность работы ИИ», — говорится в блоге.

В компании уверены, что инструмент поможет разработчикам привести свои интеллектуальные услуги в соответствие требованиям безопасности.

NeMo Guardrails имеет открытый исходный код. В Nvidia отметили, что он также будет работать со всеми инструментами, которые уже используют корпоративные разработчики.

Инструмент включен в существующую платформу NeMo для создания генеративных моделей ИИ. Бизнес-клиенты также могут получить доступ к нему через платформы AI Enterprise или AI Foundations.

Напомним, в апреле Nvidia показала алгоритм генерирования реалистичных видео по текстовому описанию.

В сентябре 2022 года компания представила новые чипы и ИИ-сервисы. Среди них — платформа для создания языковых моделей NeMo LLM.

#NVIDIA#генеративный ИИ#Искусственный Интеллект

Государство и общество

События и встречи

Ждем новостей

Нет новых страниц

Следующая новость