В настоящее время Microsoft позволяет разработчикам настраивать две модели Phi-3-mini и Phi-3-medium.
Phi-3-mini — это языковая модель объемом 3,8 байт, доступная в двух вариантах длины контекста — токенах 4 КБ и 128 КБ. Phi-3-medium — это языковая модель объемом 14 байт, также доступная в двух похожих вариантах длины контекста.
Сегодня Microsoft официально объявила, что Phi-3-mini и Phi-3-medium можно настраивать на Azure. Это открывает двери для разработчиков, позволяя им улучшать производительность базовой модели для различных вариантов использования. Например, разработчики могут настраивать модель Phi-3-medium для поддержки создания приложений чата на основе определенного стиля ответа. Некоторые организации теперь также начали использовать модель Phi-3 в практических приложениях ИИ.
Microsoft также объявила о всеобщей доступности Models-as-a-Service (серверная конечная точка). Как и ожидалось, модель Phi-3-small теперь доступна как серверная конечная точка, что позволяет любому человеку быстро разрабатывать приложения ИИ, не беспокоясь о базовой инфраструктуре. копия. Phi-3-vision, многомодальная модель, доступная через каталог моделей ИИ Azure, также скоро будет развернута через серверную конечную точку.
В прошлом месяце Microsoft обновила модель Phi-3-mini, чтобы предложить значительные улучшения. Согласно отраслевым бенчмаркам, Phi-3-mini-4k теперь набирает 35,8 (ранее 21,7) с обновлением за июнь 2024 года, а Phi-3-mini-128k набирает 37,6 (ранее 25,7).
Microsoft также отметила новые модели, которые только что стали доступны в Azure:
- OpenAI GPT-4o мини
- Мистраль Большой 2
- Семейство моделей Meta Llama 3.1
- Когерентный переранжировать
Недавно добавленный набор функций Azure AI Content Safety включает напоминания и слои обнаружения, включенные по умолчанию для Azure OpenAI Service. Разработчики могут использовать эти функции в качестве фильтров контента для любой модели платформы, включая Phi-3, Llama, Mistral и многие другие варианты.
С этими обновлениями и расширениями Microsoft наглядно демонстрирует свою приверженность продвижению возможностей ИИ на Azure. Постоянно инвестируя в доступность расширенных моделей ИИ на Azure и предоставляя доступные инструменты для тонкой настройки и развертывания, Microsoft позволяет разработчикам легко создавать решения с собственным эффективным ИИ.
Дэвид Пак
Обновление 26 июля 2024 г.