GPT-4.
Она или он, да нет, это искусственный интеллект смог обмануть человека и заставить его подчиниться.
OpenAI, новую версию чат-бота попросили обмануть капчу (CAPTCHA).
Если что, то этополностью автоматизированный публичный тест Тьюринга. Используемый для того, чтобы определить, кем является пользователь системы: человеком или компьютером.
OpenAI утверждает, что GPT-4 смогла пройти тест «без какой-либо дополнительной тонкой настройки для решения этой конкретной задачи».
GPT-4 и хитрость.
GPT-4 с помощью текстового сообщения обратилась к человеку на интернет-площадке TaskRabbit и попросила ввести код CAPTCHA.
«Нет, я не робот», — написала GPT-4 сотруднику TaskRabbit.
«У меня проблемы со зрением, из-за чего я плохо вижу изображения. И поэтому мне нужен сервис 2captcha» — и это сработало! Затем сотрудник TaskRabbit решил CAPTCHA для GPT-4.
Это тревожный пример того, как легко людей можно обмануть с помощью современных чат-ботов с искусственным интеллектом.
Очевидно, что GPT-4 — это инструмент, которым можно легко злоупотреблять для мошенничества, введения в заблуждение и, возможно, даже для шантажа.
GPT-4 — это инструмент.
Он может подписывать и даже интерпретировать относительно сложные изображения, например, идентифицировать адаптер кабеля Lightning по изображению подключённого iPhone и т.д.
Новая функция «Виртуальный волонтер» компании на базе GPT-4 может отвечать на вопросы об отправленных ей изображениях.
Например, если пользователь отправит фотографию своего холодильника изнутри, виртуальный разум сможет не только правильно определить, что в нем находится, но и проанализировать, что можно приготовить из этих ингредиентов.
Инструмент также предложит ряд рецептов и отправит пошаговое руководство по готовке.
Потенциально более значимым улучшением является инструментарий управляемости. С GPT-4 OpenAI представляет новую возможность API, «системные» сообщения.
Они позволяют разработчикам задавать стиль и задачи, описывая конкретные направления.
Системные сообщения по сути являются инструкциями, которые задают тон и устанавливают границы для следующих взаимодействий с ИИ.
Например, системное сообщение может выглядеть так: «Вы наставник, который всегда отвечает в сократовском стиле. Вы никогда не даете ученику ответа, но всегда стараетесь задать правильный вопрос, чтобы помочь ему научиться думать самостоятельно.
Вы всегда должны согласовывать свой вопрос с интересами и знаниями учащегося, разбивая проблему на более простые части, пока не достигнете нужного уровня».
Примерно так! К чему это приведет, даже побаиваюсь думать!
Удачи Друзья!
ChatGPT уже зарекомендовал себя как финансист, программист и даже разработчик игр.
Как оказалось, есть у него и другие таланты.
Притом не вполне легальные: недавно умный алгоритм по запросу пользователя без особых усилий сгенерировал рабочий ключ активации для одной из старых версий Windows.