OpenAI неожиданно выпускает долгожданную модель GPT-4


В неожиданном объявлении сегодня OpenAI выпустила долгожданный Модель ГПТ-4, обновление технологии популярного чат-бота ChatGPT. Компания называет GPT-4 своей «самой передовой системой, дающей более безопасные и полезные ответы». Неожиданное объявление появилось менее чем через четыре месяца после ЧатGPT дебютировал и стал быстрорастущий потребительское приложение в истории.

GPT-4 совершенствует базовую технологию ChatGPT, позволяя программному обеспечению чата решать более сложные проблемы с большей точностью благодаря более широким общим знаниям и возможностям решения проблем. Он также добавляет новые возможности, такие как прием изображений в качестве входных данных и создание подписей, классификаций и анализов. GPT-4 также способен обрабатывать более 25 000 слов текста, что позволяет использовать такие варианты использования, как создание длинного контента, расширенные беседы, а также поиск и анализ документов.

Объявление стало неожиданностью для многих в техническом сообществе, многие считали, что GPT-4 будет анонсирован на конференции Microsoft. Будущее работы с ИИ мероприятие в четверг. Эта новость появилась в тот же день, когда Google объявил подробный список новых возможностей генеративного ИИ, включая PaLM API и новые функции в Google Cloud и Google Workspace.

Одно из самых больших обновлений в модели GPT-4 заключается в том, что в ней представлены первые элементы мультимодального чата, что означает, что он может работать с большим количеством модальностей, а не только с текстом. GPT-4 может принимать изображения в качестве входных данных и генерировать подписи, классификации и анализы. Его предшественник GPT-3.5 мог принимать только текст. Хотя возможностей GPT-4 не хватает для преобразования текста в видео и другого динамического генеративного контента, он дает представление о том, что такое мультимодальный чат будет выглядеть в будущем. Легко представить, как в будущем видео, аудио, изображения и все другие формы контента будут интегрированы в чат.

OpenAI утверждает, что GPT-4 превосходит ChatGPT

В пост в блоге компании, OpenAI утверждает, что GPT-4 «превосходит ChatGPT по своим расширенным возможностям рассуждений» и «использует больше данных и больше вычислений для создания все более сложных и функциональных языковых моделей. Компания добавляет: «Мы потратили 6 месяцев на то, чтобы сделать GPT-4 более безопасным и согласованным. По нашим внутренним оценкам, GPT-4 на 82% реже отвечает на запросы о запрещенном контенте и на 40% чаще дает фактические ответы, чем GPT-3.5».

Стремясь сделать модель более сложной, GPT-4 также включает в себя больше отзывов людей, включая отзывы, отправленные пользователями ChatGPT, для улучшения поведения GPT-4. OpenAI говорит, что компания работала «с более чем 50 экспертами для получения ранней обратной связи в областях, включая безопасность и безопасность ИИ».

В рамках объявления OpenAI поделилась несколькими примерами использования от компаний, которые уже протестировали GPT-4, включая Duolingo, Stripe, Morgan Stanley и правительство Исландии. Компания также поделилась исследование ГПТ-4 блог и подчеркнул, что «GPT-4 все еще имеет много известных ограничений, над устранением которых мы работаем, таких как социальные предубеждения, галлюцинации и состязательные подсказки».

Суреш Венкатасубраманян, ученый-компьютерщик и профессор Университета Брауна, сохраняет осторожный оптимизм в отношении этого объявления. В интервью VentureBeat он сказал: «Мне не терпится увидеть, как он поведет себя в условиях стресс-тестирования, которое ChatGPT прошел на виду у публики, и мне особенно интересно узнать, галлюцинирует ли он обманчиво реальный контент, и если да, то каким образом. существуют средства защиты, чтобы предотвратить это».

GPT-4 доступен по тарифному плану ЧатGPT Plus и как API для разработчиков.

Миссия VentureBeat должна стать цифровой городской площадью, на которой лица, принимающие технические решения, смогут получить знания о трансформирующих корпоративных технологиях и заключать сделки. Откройте для себя наши брифинги.

Admin