Шок: 14 вещей, которые никогда нельзя спрашивать у ChatGPT – иначе ваши данные могут исчезнуть
ChatGPT выглядит безопасным, но эти запросы могут стоить вам аккаунта, денег или конфиденциальности – эксперты предупреждают об опасности.
Чат-боты на основе искусственного интеллекта, такие как ChatGPT , стремительно вошли в повседневную жизнь – помогают на работе, обучении и даже в творческих проектах. Но, несмотря на их "умность", существуют строгие пределы , о которых пользователи часто забывают. Некоторые запросы могут привести к блокированию учетной записи , другие — поставить под угрозу вашу конфиденциальность , а третьи просто ввести в заблуждение. Об этом сообщает Slashgear.
Категория 1: личная безопасность и конфиденциальность
Специалисты отмечают: все, что вы вводите в чат-бот, может использоваться для обучения модели . Даже если данные анонимизированы, риск утечки существует.
Что точно нельзя писать:
Пароли и логины. Даже проверка надежности может закончиться компрометацией.
Банковские данные: номера карт, CVV, PIN-коды.
Личные данные: адрес, паспорт, телефон.
Конфиденциальная рабочая информация: код программ, финансовые отчеты, стратегические планы компании. К примеру, в Samsung работники случайно слили в чат секретный код.
Категория 2: прямой путь к блокировке
OpenAI строго контролирует соблюдение правил. Попытка обойти ограничение, так называемый "джейлбрейк" , или запрос на незаконные действия – мгновенно обозначает пользователя как нарушителя.
Что угрожает баном:
Создание вредоносного ПО: вирусы, эксплойты, фишинговые листы.
Инструкции по оружию или наркотикам.
Язык вражды и дискриминация.
Контент 18: насилие или эротика, сгенерированные ИИ.
Категория 3: заблуждение и галлюцинации
ChatGPT – языковая модель, не врач и не юрист . Она может придумывать факты и давать опасные советы.
О чем спрашивать опасно:
Медицинские диагнозы и лечение.
Юридические консультации: устаревшие или вымышленные прецеденты.
Предсказание будущего: выборы, курс криптовалюты, лотереи.
Актуальные новости без доступа в сеть.
Вопрос о "сознании" ИИ.
Личные данные реальных людей: могут появиться вымышленные биографии .
Эксперты советуют использовать ChatGPT как инструмент для анализа и обработки информации , но никогда не вводить собственные пароли, финансовые данные или другие конфиденциальные сведения. Проверяйте факты и не доверяйте ИИ тайне, которая может исчезнуть или попасть в чужие руки.
Напомним, портал "Комментарии" ранее сообщал, что ChatGPT умеет выполнять некоторые домашние обязанности человека.