30.05.25 11:37:00

Как отличить тексты и изображения, созданные искусственным интеллектом, от подлинных, рассказали специалисты ВТБ. Согласно экспертным оценкам, которыми поделилась пресс-служба банка, визуальный контент, созданный ИИ, чаще всего выдают анатомические ошибки, искажения перспективы и нелогичные детали в кадре, а сгенерированные нейросетями тексты — избыточная шаблонность, повторяемость формулировок и упрощенный стиль.
Генеративные нейросети сегодня используются практически во всех сферах — от финансов до индустрии развлечений. Но вместе с ростом возможностей ИИ увеличиваются и риски: нейросети способны создать правдоподобные фейковые тексты, изображения и видео, которые все сложнее отличить от реальных — отметил Алексей Пустынников, Team Lead DS департамента анализа данных и моделирования банка. По его словам, главное правило выявления фейковых изображений — внимание к деталям.
«Наиболее частыми признаками нейросетевой генерации становятся анатомические ошибки, например, лишние или деформированные пальцы, искажения перспективы, неестественные тени и отражения, а также артефакты или бессмысленные надписи. Кроме того, стоит насторожиться, если в кадре присутствуют предметы, которые нарушают законы физики или не соответствуют здравому смыслу. Такой подход позволяет вовремя распознать подделку, даже если на первый взгляд изображение кажется реалистичным», — подчеркнул эксперт.
Тексты, созданные ИИ можно встретить в самых разных форматах — от пользовательских комментариев и отзывов до новостных заметок и аналитики — и выглядят грамотными, структурно выверенными и лексически богатыми. Однако при внимательном чтении можно увидеть, что писал не человек.
«Принципиально отличить текст, созданный нейросетью, от авторского сегодня невозможно — любые тексты могут быть сгенерированы искусственно. Однако для массово доступных моделей характерна определенная шаблонность: избыточная дружелюбность, повторяемость, обилие стандартных оборотов и "воды". Важно всегда критически оценивать контент: насколько он полезен, сколько усилий вложено в его создание, используется ли в тексте личный опыт автора и можно ли проверить полученную информацию по независимым источникам», — подчеркнул Виктор Булатов, ведущий специалист управления партнерств и ИТ-процессов.
По мере распространения сгенерированного контента все более востребованными становятся инструменты защиты, которые позволяют проверять его достоверность, — рассказали в банке. — Это особенно актуально при работе с базами знаний и клиентскими интерфейсами, где важно исключить риск дезинформации или некорректных формулировок.
«Сейчас все больше компаний используют ИИ-модели, в том числе для интеллектуального поиска по базам знаний, — и здесь особенно важно убедиться, что система не допускает искажений, а формирует ответы на основе достоверных источников», — пояснил Лев Меркушов, руководитель направления разработки ИИ-решений.
Он рассказал, что в ближайших планах банка — обучение специальных моделей-детекторов, которые смогут отслеживать наличие токсичных или чувствительных тем в ИИ-контенте и проверять достоверность выдачи. «Для обычных пользователей главное правило остается прежним: перепроверяйте информацию по надежным источникам» — подчеркнул эксперт. |