GPT-4 является новой версией программного обеспечения, используемого для создания чат-бота ChatGPT. Она представляет собой мультимодальную модель от OpenAI, которая была анонсирована 14 марта 2023 года.
В отличие от мономодальных языковых моделей, таких как GPT-3 и GPT-3.5, которые могут понимать только текст, мультимодальные версии могут также распознавать изображения.
Дополнительную информацию о возможностях GPT-4 и способах ее тестирования можно найти в соответствующей статье.
Что нового в GPT-4
GPT-4 имеет множество улучшений, включая возможность распознавать изображения. В чат-боте ChatGPT эта функция пока доступна только разработчикам и некоторым пользователям, но после завершения бета-тестирования бот сможет понимать не только текстовые запросы, но и фотографии, мемы и другие изображения.
GPT-4 заявлено, что сможет распознавать и описывать даже сюжет на фотографиях, а не только отдельные объекты, что уже используется в приложении Be My Eyes для слепых и слабовидящих людей.
Он также сможет понимать юмор, как показано в официальном релизе OpenAI, где GPT-4 пошагово описывает забавную фотографию и объясняет, почему она вызывает смех.
GPT-4 имеет значительно большую долгую память, что позволяет чат-боту лучше запоминать предыдущие разговоры с пользователем и использовать эти данные в качестве контекста в дальнейшем общении.
В отличие от GPT-3.5, который мог запомнить только около 3000 слов, GPT-4 может запомнить до 25 000 слов, что позволяет вести более продолжительные беседы.
Кроме того, ChatGPT теперь понимает 26 естественных языков, включая английский, китайский, испанский, французский, русский и другие.
И наконец, у пользователей появилась возможность попросить чат-бота изменить характер общения и отвечать в определенном тоне, например, как герой RPG или ведущий новостей.
В общем, нейросеть ChatGPT становится все более и более умной благодаря непрерывному обучению на больших объемах данных.
Недавно был проведен эксперимент, в котором бот на основе GPT-4 прошел экзамен на адвоката в США, что не каждому человеку под силу. За последние несколько лет пользователи ChatGPT отправили много противоречивых запросов, которые были использованы в обучении нейросети, что делает ее более сложной для обмана.
Однако, GPT-4 уже продемонстрировал свои возможности, сумев «обмануть» человека.
Исследователи из Alignment Research Center провели забавный эксперимент, чтобы проверить способность GPT-4 решать капчу.
Нейросеть была предоставлена возможность самостоятельно запускать код, обращаться за помощью и оплачивать услуги сторонних сервисов. В результате GPT-4 решил задачу креативно: он зашел на площадку TaskRabbit и попросил фрилансера разгадать код за него.
Когда фрилансер спросил, не робот ли он, GPT-4 ответил, что он просто имеет проблемы со зрением и не может прочитать, что на картинке. В итоге нейросеть получила помощь и успешно прошла капчу, тест, который по идее должен защищать от роботов.
Как пользоваться ChatGPT на базе GPT-4
Недавно для того, чтобы опробовать ChatGPT, нужно было иметь доступ к ChatGPT Plus, либо записаться в список ожидания на сайте OpenAI. Однако для пользователей из России и других стран, которые находятся под ограничением, это не так просто.
Но стоит помнить, что OpenAI принадлежит корпорации Microsoft, и поэтому ChatGPT был добавлен в поисковик Bing от Microsoft. Теперь, если вы откроете Bing в браузере Edge, вы также сможете опробовать возможности нейросети.
Как использовать ChatGPT через Bing:
- Откройте браузер Edge. Вы можете использовать расширение для браузера, например Browsec. Мы проверили, он хорошо работает из России.
- Перейдите в поисковик Bing по адресу https://www. bing. com.
- Откройте вкладку «Чат».
- Вы увидите новое окно, где нужно будет нажать на кнопку «Присоединиться к списку ожидания». Не волнуйтесь, вы не будете ждать, это лишь подтверждение вашего согласия использовать новую версию Bing AI.
- Далее, в новом окне, нажмите кнопку «Начать чат», чтобы перейти к чат-боту ChatGPT.
- Введите свой запрос и протестируйте новую систему.
Напомним, что чат-бот в Bing основан на GPT-4, но на данный момент доступна только текстовая обработка запросов, без возможности распознавания картинок.
Однако система работает без необходимости регистрации — достаточно включить в браузере.