Нейросети плотно вошли в нашу повседневную жизнь, однако работа с ними не так проста, как может казаться на первый взгляд. Осваивая новые технологии, новички нередко допускают ошибки, из-за которых ИИ может выдавать неточные или некорректные результаты. «Открытый Нижний» рассмотрел наиболее распространенные ошибки, а также разобрался, как максимально эффективно использовать технологии прикладного искусственного интеллекта.
Невнятное ТЗ — результат ХЗ
Отсутствие четко поставленной задачи – одна из наиболее распространенных ошибок во время работы не только с нейросетями, но и с реальными людьми. Часто человек попросту сам еще не определил, чего хочет, поэтому просит ему «принести то, не знаю что».
Например, при генерации картинок важно понимать, какой конкретно результат мы хотим получить. Нейросеть — это не «волшебная палочка», способная на все, а такой же инструмент, с которым нужно учиться работать. Если нужно атмосферное изображение про осенний отдых, то лучше в промт писать конкретные вещи: «девушка сидит в весеннем парке и пьет чай». Несмотря на то, что современные нейросети по типу Midjourney и DALL-E могут сделать шедевр даже из неконкретного запроса, результат может не соответствовать ожиданиям. Наиболее четко это прослеживается при работе со Stable Diffusion. Если вышеупомянутые Midjourney и DALL-E всегда корректируют запрос, чтобы результат был более «привлекательным», то Stable Diffusion делает все четко по промту. В его датасете скорее всего не будет картинок с тэгом «атмосферный». По крайней мере тех, которые нужны именно нам. Поэтому для наилучшего результата нужно максимально уточнить свой запрос: от стиля картинки до мельчайших объектов на нём.
Кроме того, в некоторых случаях нейросеть попросту не сможет сгенерировать некоторые объекты. Ради интереса вы можете попробовать попросить Midjourney, DALL-E или любую другую модель создать картинку тульского пряника. С большой вероятностью ИИ сгенерирует похожее кондитерское изделие, но оно будет далеко от нужного нам результата, так как в нейросети попросту нет информации о тульском прянике. Однако это может сделать отечественная нейросеть Flexy. Поэтому в некоторых случаях имеет смысл пользоваться разными сервисами.
Слева — DALL-E, справа — Flexy
Издержки перевода
Важно понимать, что зарубежные нейросети по типу ChatGPT работают именно с английским языком. Это значит, что если промт написан на русском, то перед его обработкой текст переводится на английский. После этого результат переводится уже на русский. Дело в том, что большинство языковых моделей либо вовсе не обучались на русскоязычных источниках, либо их было использовано ничтожно мало. Именно по этой причине нейросети часто могут коверкать исходные цитаты, которые им дает пользователь.
Стоит отметить, что у отечественных нейросетей, таких как GigaChat, подобных проблем с переводом меньше — они изначально обучались на русскоязычном датасете, поэтому более заточены под такие запросы. Однако это хоть и снижает вероятность искажения смысла, но не исключает ее полностью.
Нейросети тоже ошибаются
У нейросетей есть такая неприятная особенность как галлюцинации — это когда они генерируют несуществующую или неправдивую информацию. Такое происходит, потому что модель обучается на огромных объемах данных и иногда «угадывает» ответ, чтобы соответствовать запросу пользователя, даже если информации недостаточно. Кроме того, галлюцинации могут возникать из-за ошибок в исходных данных, недостаточной точности модели или сложности запроса.
Несмотря на то, что проблема галлюцинаций сейчас не так ярко выражена, как раньше, они все равно могут время от времени проскакивать. Поэтому нужно на постоянной основе проверять информацию, которую выдают нейросети, использовать более простые и конкретные промты, а также не обращаться к ИИ для получения ответов по узконаправленным темам, так как она их может не знать, из-за чего начнет выдумывать.
Береги данные смолоду
При работе с нейросетями всегда важно помнить, что все запросы и данные из них могут быть сохранены и проанализированы. Нейросети, особенно те, которые предоставляются крупными компаниями, часто используют запросы пользователей для улучшения своей работы и обучения моделей. Это означает, что даже если данные не хранятся в явном виде, они могут быть частью процесса обработки и анализа. Например, некоторые модели могут извлекать закономерности из данных или запоминать фрагменты информации, которая затем может быть случайно выдана после некоторых манипуляций с промтом. Тот же ChatGPT уже попадался на том, что выдавал пароли простых пользователей.
Поэтому ни в коем случае не передавайте нейросетям личные данные и обязательно обезличивайте каждый запрос. Одним из решений стать использование локальных LLM с открытым датасетом. Правда, это не всем подходит, так как требует больших компьютерных мощностей.
Нейросети предвзяты
Всегда важно помнить, что нейросети обучают на данных, которые тщательно подбираются, а разработчики задают им конкретные установки. Тот ChatGPT уже ловили на том, что он придерживается скорее «левых» взглядов. Из-за этого он может вовсе искажать информацию при выдаче ответов на «деликатные» темы.
Цензуру нейросетей можно попробовать обойти, энтузиасты даже регулярно проворачивают такие манипуляции с помощью спецсимволов. Однако разработчики борются с такими пользователями, и попросту блокируют их. Поэтому лучше либо избегать запросов на сомнительные темы, либо максимально стараться завуалировать их.
Обложка сгенерирована нейросетью по запросу «Открытого Нижнего»