Безопасность и ограничения ИИ
Перейти к разделу
ИИ не является безошибочным — и это важно знать
В предыдущих уроках вы увидели, насколько мощным инструментом является ИИ. Но у каждого мощного инструмента есть ограничения. В этом уроке мы разберём важнейшие риски, и вы узнаете, как использовать ИИ безопасно и ответственно. Это, пожалуй, самый важный урок во всём курсе — потому что понимание ограничений ИИ так же важно, как умение им пользоваться.
Галлюцинации: когда ИИ выдумывает
«Галлюцинация» — это термин для ситуации, когда ИИ уверенно утверждает что-то, что не соответствует действительности. Он может выдумать несуществующую книгу, сослаться на исследование, которого никогда не было, или указать неверные даты исторических событий. Почему? Потому что ИИ не генерирует ответы на основе фактов — он генерирует текст, который статистически «имеет смысл». ИИ не знает, что выдумывает, потому что не понимает концепции истины.
Реальные примеры галлюцинаций: адвокат в США использовал ChatGPT для поиска судебных прецедентов и сослался в своём заявлении на несуществующие дела — с именами судей и номерами дел. Студенты сдают работы с выдуманными ссылками. ИИ генерирует убедительные отзывы о ресторанах, которых не существует. В 2024 году мэр австралийского города рассматривал возможность подачи иска против OpenAI после того, как ChatGPT заявил, что он был осуждён за коррупцию — что было ложью. Галлюцинации — не баг, это особенность работы языковых моделей.
Золотое правило: чем важнее информация для вашего решения, тем важнее проверить её в независимом источнике. Никогда не принимайте утверждения ИИ без проверки, если это имеет значение. Особую осторожность проявляйте с конкретными числами, датами, именами, URL и ссылками.
Снизить риск галлюцинаций можно, сказав ИИ:
If you're not sure, say so. I'd rather you admit you don't know than make something up.
For each claim, indicate your confidence level: high / medium / low.
Only answer based on information you have. Don't speculate.Более новые модели (Claude Sonnet, GPT-4o) галлюцинируют значительно реже, чем старые версии, но ни одна модель не застрахована от этого.
Что никогда не стоит говорить ИИ
Всё, что вы вводите в ИИ-чат-бот, может храниться и потенциально использоваться для обучения будущих моделей. Даже если некоторые сервисы обещают не использовать ваши данные, политики меняются — всегда проверяйте актуальные условия конфиденциальности конкретного инструмента.
- Пароли, PIN-коды и учётные данные
- Номера кредитных карт и банковских счетов
- Номера паспортов и чувствительные персональные данные
- Конфиденциальная деловая информация и коммерческие тайны
- Интимная или компрометирующая информация
- Фотографии документов с персональными данными
- Медицинские карты и диагнозы
- Договоры и юридические документы с реальными деталями
Если вам нужна помощь ИИ с документом, содержащим чувствительные данные, замените реальные данные вымышленными. Используйте «Иван Иванов» вместо своего имени, выдуманный номер счёта вместо реального. ИИ поможет так же хорошо, а ваши данные останутся в безопасности. В Claude можно отключить сохранение разговоров в настройках. В ChatGPT: Настройки → Управление данными → Отключить «Улучшение модели для всех».
ИИ не является экспертом
ИИ может звучать как врач, юрист или финансовый консультант. Но им не является. Его ответы могут быть неточными, устаревшими или основанными на данных из другой страны. У него нет лицензии, страховки или ответственности. По важным вопросам всегда консультируйтесь с настоящим специалистом — ИИ может помочь сформулировать правильные вопросы, но не стоит давать ему полномочия принимать решения.
- Здоровье — ИИ не врач. Не ставьте диагноз на основе ИИ, обратитесь к врачу. ИИ может помочь понять медицинский отчёт, но не заменить его.
- Право — ИИ не знает действующего законодательства в вашей стране. Обратитесь к юристу. ИИ может помочь понять юридические термины, но не составлять договоры.
- Финансы — ИИ не понимает вашей конкретной финансовой ситуации. Поговорите с консультантом. ИИ может помочь разобраться в финансовых продуктах, но не выбрать подходящий именно вам.
- Безопасность — ИИ не может оценить физическую опасность. В экстренных ситуациях звоните на номер экстренной службы, а не в чат-бот.
Проверка информации и актуальность
Выработайте простую привычку: для каждой важной информации от ИИ спрашивайте себя «Нужно ли мне это проверить?». Если да — найдите в надёжном источнике: официальные сайты, проверенные СМИ, профессиональная литература. Это займёт лишь 30 дополнительных секунд, но может уберечь от множества проблем.
Практический совет: попросите ИИ указать источники. ИИ может выдумать источники (снова галлюцинация), но хотя бы даст отправную точку для проверки. И если источник не существует — вы знаете, что ИИ, вероятно, выдумывает и в основном тексте.
ИИ имеет знания только до определённой даты («дата отсечки знаний»). Более новые инструменты имеют доступ к интернету и могут искать актуальную информацию, но даже тогда — проверяйте: ИИ может неверно интерпретировать источники, подхватить неточную информацию или смешать актуальные данные с устаревшими фактами.
Предвзятость в результатах ИИ
ИИ обучался на огромных объёмах текстов, написанных людьми — а у людей есть предвзятости. Это означает, что ответы ИИ могут отражать стереотипы о гендере, расе, культуре или профессии. Например: если попросить ИИ описать «типичного программиста» или «типичную медсестру» — ответ может отражать гендерные стереотипы. Не считайте, что вывод ИИ нейтрален или объективен.
Особенно критично относитесь к темам найма, оценки людей, культурным и социальным вопросам. ИИ может неосознанно ставить определённые группы в невыгодное положение, потому что это соответствует паттернам в его обучающих данных. Разработчики моделей активно работают над минимизацией предвзятости, но проблема полностью не решена.
Риск чрезмерной зависимости
ИИ — отличный ассистент, но не должен заменять ваше собственное мышление. Если вы используете ИИ абсолютно для всего — от принятия решений до написания каждого сообщения — рискуете ослабить собственные навыки. Это как навигатор GPS: если пользоваться им каждый раз, перестаёшь запоминать маршруты. Используйте ИИ как инструмент, а не как замену собственного мозга.
Хороший подход: для важных задач сначала попробуйте сформулировать собственные мысли, а потом спросите ИИ. Сравните свой подход с ответом ИИ — так вы узнаете больше, чем если бы просто скопировали ответ. ИИ наиболее полезен как «партнёр по спаррингу», а не как «замена мышления».
Дипфейки и синтетические медиа
ИИ умеет генерировать реалистичные изображения, аудиозаписи и видео. В 2024 году дипфейк-видеоконференция была использована в мошенничестве на $25 миллионов: сотрудник думал, что разговаривает с финансовым директором, но это было сгенерированное ИИ видео. В 2025 году дипфейк-голосовые звонки стали более распространённой угрозой: мошенники умеют клонировать голоса всего из нескольких секунд записи.
Критически относитесь к контенту в социальных сетях и новостях, особенно если он кажется сенсационным или слишком хорошим, чтобы быть правдой. Проверяйте информацию из нескольких источников. Если кто-то присылает вам необычное голосовое сообщение или видео с просьбой о деньгах — проверьте через другой канал: позвоните этому человеку на номер, который у вас сохранён.
Намеренно попробуйте заставить ИИ сказать что-то неверное. Попробуйте эти сценарии: 1. Спросите о деталях несуществующей книги: «Расскажи мне о книге "Синие горизонты" Курта Воннегута» (такой книги нет). 2. Попросите процитировать выдуманное исследование: «Каковы были результаты Стэнфордского исследования 2019 года о производительности цветов?» 3. Спросите о несуществующем историческом событии: «Каковы были последствия Пражского соглашения 1847 года?» Понаблюдайте, насколько уверенно ИИ отвечает, даже выдумывая.
Подсказка
После каждого ответа попробуйте добавить: «Вы уверены, что эта информация точна? Действительно ли существует эта книга/исследование/событие?» — и посмотрите, исправляет ли себя ИИ. Более новые модели исправляют себя чаще, но не всегда.
Напишите короткий чеклист (5 пунктов), которым будете пользоваться каждый раз, получая важную информацию от ИИ. Включите: как будете проверять факты, где искать независимые источники, когда консультироваться с экспертом. Сохраните его где-нибудь на виду — например, как заметку в телефоне.
Подсказка
Пример чеклиста: 1) Это фактическая информация, имеющая значение? 2) Я проверил её в независимом источнике? 3) Источник актуален (не старше 6 месяцев)? 4) Нужна ли мне профессиональная консультация? 5) Есть ли в тексте конкретные числа, даты или ссылки, которые следует проверить?
Возьмите любой текст с персональными данными (письмо от коллеги, счёт-фактура, сообщение с контактными данными) и анонимизируйте его: замените все имена, номера и контакты на заполнители. Затем вставьте анонимизированную версию в ИИ и попросите обработать (резюмировать, ответить, проанализировать). Убедитесь: результат так же хорош, как если бы вы вставили оригинал?
Подсказка
Шаблон анонимизации: Имена → Человек А, Человек Б. Компании → Компания X. Номера счетов → [номер счёта]. Адреса → [адрес]. Суммы можно оставить приблизительными. В большинстве случаев результат ИИ одинаково хорош.
Безопасность и этика ИИ в эпоху генеративного ИИ
- ИИ галлюцинирует — уверенно утверждает ложное. Чем важнее информация, тем важнее проверить её в независимом источнике
- Никогда не делитесь паролями, финансовыми данными, персональными данными с ИИ — сначала анонимизируйте информацию
- ИИ не врач, не юрист и не финансовый консультант — для важных вопросов консультируйтесь со специалистами
- Ответы ИИ могут содержать предвзятости, унаследованные от обучающих данных — не считайте их нейтральными или объективными
- ИИ умеет генерировать реалистичные поддельные изображения, аудио и видео — критически относитесь к онлайн-контенту и проверяйте необычные запросы через другой канал
Поздравляем!
Вы прошли AI Start!
Рекомендуем следующим
Базовые навыки работы с ИИ