Нейросети уже плотно вошли в нашу жизнь. По данным компании OpenAI, к одному лишь ChatGPT, который является одной из самых известных и мощных языковых моделей, ежемесячно обращается около 100 млн пользователей. Сервис обогнал даже TikTok по популярности. Однако из-за бурного развития технологий многие забывают об этическом аспекте использования прикладного искусственного интеллекта. «Открытый Нижний» решил разобраться, где применяются нейросети и каким образом регулируется их использование.
ИИ в повседневной жизни
Нейросети в повседневной жизни способны упростить повседневные задачи: планирование, поиск информации, управление умными устройствами и даже улучшение личной продуктивности. В некоторых случаях ему можно даже доверить самостоятельные решения. При этом сложно отрицать, что нейросети несут в себе и опасность: они собирают личные данные, которые могут быть скомпрометированы в любой момент.
Напомним, сотрудникам администрации Нижнего Новгорода вовсе запретили использовать ChatGPT и другие нейросети на работе еще в прошлом году. Представители мэрии тогда сослались на рекомендации Федеральной службы по техническому и экспортному контролю. Они касаются предотвращения реализации угроз безопасности информации.
Важно отметить, что эти опасения не безосновательны. В январе 2024 года пользователи ChatGPT заметили, что нейросеть в диалоге выдает логины, пароли и другие конфиденциальные данные пользователей. Поэтому стоит воздержаться от загрузки чувствительной информации при общении с ботом. Однако не до конца понятно, кто несет ответственность, если такие данные попали общественный доступ при условии, что пользователь поделился им в личной переписке с нейросетью.
Нейросети на службе мошенников
Не стоит забывать, что технологии прикладного искусственного интеллекта не обошли внимание злоумышленников. Дипфейки видео и голосов уже активно используются мошенниками, которые выдают себя за родственников жертв, за счет чего выманивают у них деньги. При этом инструменты для подделки изображений и аудио буквально находятся в отрытом доступе, нет никаких принципиальных ограничений для их использования.
Более того, дипфейки уже использовались для дезинформации людей: 13 сентября губернатор Белгородской области Вячеслав Гладков в своем телеграм-канале предупредил о распространении в интернете дипфейков с участием представителей региональных властей, в том числе с ним самим (о сервисах для распознания различных дипфейков рассказывается в статье «Открытого Нижнего». - Прим. ред.).
На сегодняшний день в России нет отдельного наказания за преступления с использованием дипфейков, однако в Госдуму уже внесен законопроект, который будет учитывать такие моменты. В случае его принятия за клевету и мошенничество с использованием дипфейков будет грозить больше, чем за аналогичные преступления без их применения.
Нейросети в образовании
Также нельзя не упомянуть аспект образования. Ранее «Открытый Нижний» уже выяснил, что в преподавательском сообществе нет единого мнения касательно того, стоит ли разрешать студентам использовать нейросети для написание научных работ. Вместе с тем они более лояльно относятся, если тот же ChatGPT будет помогать им подготавливаться к занятиям. Несмотря на то, что ИИ может быть хорошим репетитором, полноценного учителя он вряд ли заменит.
В ННГУ имени Н.И. Лобачевского обозначили десять принципов этического использования использовании сервисов на основе ИИ. Уже подписана соответствующая декларация, которая провозглашает:
- Целесообразность. Использовать ИИ в обучении нужно, если это помогает улучшить результаты и учебный процесс.
- Разумное внедрение. ИИ – это инструмент, а не цель. Разработчики должны показать доказательства его пользы.
- Ответственное использование. Учебные программы с ИИ должны соответствовать требованиям образовательных учреждений.
- Сохранение способностей. ИИ не должен мешать развитию личных навыков и компетенций учеников.
- Значимость понимания. Сервисы с ИИ должны помогать в понимании материала, а не просто давать готовые ответы.
- Информированность. Все участники обучения должны знать, как работает ИИ, его возможности и риски.
- Открытость. Использование ИИ должно быть максимально прозрачным для всех.
- Академическая честность. Нельзя выдавать результаты работы ИИ за свои, когда требуется личный вклад.
- Доступность. Нужно обеспечивать равный доступ ко всем ИИ-технологиям для всех участников обучения.
- Приоритет общения. ИИ не должен заменять живое общение между участниками образовательного процесса.
Использование нейросетей открывает много возможностей, но требует ответственного подхода. Важно учитывать не только пользу, которую они могут принести, но и возможные риски: от нарушения конфиденциальности до подрыва доверия к информации. Этика в использовании таких технологий должна быть на первом месте, чтобы нейросети служили во благо, не причиняя вреда людям и обществу.
Изображение сгенерировано нейросетью по запросу «Открытого Нижнего»
Наша группа ВКонтакте: последние новости, конкурсы, живое общение. Подписывайтесь!