Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует».В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.OpenAI также отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.#новости #openai #chatgpt
Человек слаб.
может понимать не только текст, но и изображенияА ты можешь?
Комментарий недоступен
гораздо раньше колумбайнеры вооруженные тысячами самовоспроизводящихся кофемолок с али начнут действовать.