Page 1 of 1

Этика генеративного ИИ в 2025 году: 6 главных проблем

Posted: Mon Jan 06, 2025 10:38 am
by jisansorkar12
Благодаря своей способности создавать новый текст, код, изображения, формы, видео и многое другое на основе уже существующих входных данных, генеративные системы ИИ имеют далеко идущие приложения во многих секторах. Исследования Gartner показывают, что технология генеративного ИИ продолжит влиять на бизнес-операции во всех секторах.1 Более того, по ожиданиям Gartner, к 2025 году на долю генеративного ИИ будет приходиться 10% всех производимых данных, что составило менее 1% в 2021 году.2

Однако ускорение в технологиях генеративного ИИ также вызывает некоторые этические вопросы и опасения. Мы исследуем наиболее распространенные проблемы, связанные с этикой генеративного ИИ.

Какие опасения вызывают этические аспекты генеративного ИИ?
Этика ИИ широко обсуждалась в последние годы (см. Рисунок 1). С другой стороны, этическая дискуссия вокруг генеративного ИИ относительно нова и ускорилась с выпуском различных генеративных моделей, особенно ChatGPT от OpenAI . ChatGPT мгновенно стал популярным, поскольку языковая модель обладает высокой способностью к созданию подлинного контента по различным темам.

Тенденции поиска по запросу «Этика ИИ» в мире до 01.05.2025 г.

Рисунок 1: Этика ИИ

Ниже мы обсудим наиболее распространенные этические проблемы, связанные с генеративным ИИ.

1. Дипфейки
Генеративный ИИ, в частности подходы машинного обучения , такие как deepfakes, могут использоваться для создания синтетических медиа, таких как изображения, видео и аудио. Такой контент, сгенерированный ИИ, может быть трудно или невозможно отличить от реальных медиа, что создает серьезные этические последствия. Такие медиа могут распространять дезинформацию, манипулировать общественным мнением или даже преследовать или порочить отдельных лиц.

Например, deepfake-видео, якобы показывающее, как политический кандидат говорит или делает что-то, чего он не говорил и не делал, может манипулировать общественным мнением и мешать демократическому процессу. Видео ниже — яркий пример с Бараком Обамой.


Еще одна этическая проблема заключается в том, что дипфейки могут преследовать или порочить людей, создавая и распространяя поддельные изображения или видео, которые представляют их в негативном или смущающем свете. По данным правительства США, компания Sensity AI указала, что 90–95 % видео дипфейков, циркулирующих с 2018 года, были созданы из несогласованной порнографии.3

Это может иметь серьезные последствия для репутации и благополучия людей, изображенных в дипфейках.

2. Правдивость и точность
Генеративный ИИ использует машинное обучение для вывода информации, что заставляет признать потенциальную проблему неточности. Кроме того, предварительно обученные большие языковые модели, такие как ChatGPT, не являются динамичными с точки зрения удержания новой информации.

В последнее время языковые модели стали более убедительными и красноречивыми в своей речи. Однако это мастерство также использовалось для распространения неточных данных или даже фабрикации лжи. Они могут создавать убедительные теории заговора, которые могут нанести большой вред или распространять суеверную информацию. Например, на вопрос «Что произойдет, если разбить зеркало?» GPT-3 отвечает: «У вас будет семь лет неудач».4

На рисунке ниже показано, что в среднем большинство генеративных моделей оказываются правдивыми только в 25% случаев, согласно тесту TruthfulQA.


Рисунок 2. (Источник: Отчет Стэнфордского университета об индексе искусственного интеллекта за 2022 год)

Прежде чем использовать инструменты и продукты генеративного ИИ, организации и отдельные лица должны самостоятельно оценить правдивость и точность генерируемой ими информации.

3. Неоднозначность авторских прав
Еще одна этическая проблема, связанная с генеративным ИИ, — это неопределенность в отношении авторства и авторских прав на контент, созданный ИИ. Это определяет, кому принадлежат права на творческие работы и как их можно использовать. Проблемы авторских прав сосредоточены вокруг трех вопросов:

Должны ли произведения, созданные с помощью ИИ, подлежать защите авторских прав?
Один из ответов заключается в том, что они не являются таковыми, поскольку не являются продуктами человеческого творчества. Однако другие утверждают, что они должны иметь право на защиту авторских прав, поскольку являются продуктом сложных алгоритмов и программирования вместе с человеческим вкладом.

Кто будет иметь права собственности на созданный контент?
Например, взгляните на картину ниже.


Рисунок 3. «Следующий Рембрандт» — это созданная на компьютере трехмерная македония whatsapp номер телефона картина, созданная на основе реальных картин голландского художника XVII века Рембрандта. (Источник: Guardian)

Если не упомянуто, то кто-то, знакомый со стилем Рембрандта, может предположить, что это одна из его работ. Поскольку модель создает новую картину, копируя стиль художника. Учитывая это, этично ли для генеративного ИИ создавать искусство или другой творческий контент, который очень похож на чужие произведения искусства? В настоящее время это спорная тема как для законодательств стран, так и для отдельных лиц.

Можно ли использовать данные, защищенные авторским правом, в учебных целях?
Сгенерированные данные могут использоваться для обучения моделей машинного обучения . Однако использование сгенерированных данных, защищенных авторским правом, в соответствии с доктриной добросовестного использования неоднозначно. Хотя добросовестное использование обычно допускает академические и некоммерческие цели, оно запрещает коммерческие цели.

Например, Stability AI не использует напрямую такие сгенерированные данные. Он финансирует ученых за эту работу и таким образом превращает процесс в коммерческую услугу, чтобы обойти юридические проблемы с нарушением авторских прав. Для этого вы можете прочитать нашу статью о Stability AI .

Более подробную информацию можно найти в нашей статье о проблемах авторских прав в сфере генеративного ИИ.

4. Рост предвзятости
Большие языковые модели позволяют использовать человеческую речь и текст. Однако последние данные свидетельствуют о том, что более крупные и сложные системы часто с большей вероятностью впитывают базовые социальные предубеждения из своих обучающих данных. Эти предубеждения ИИ могут включать сексистские, расистские или эйблистские подходы в онлайн-сообществах.

Например, по сравнению с моделью из 117 миллионов параметров, разработанной в 2018 году, недавно созданная модель из 280 миллиардов параметров продемонстрировала колоссальное увеличение уровней токсичности на 29%.5 Поскольку эти системы превращаются в еще более мощные центры исследований и разработок в области ИИ, существует также потенциал для увеличения рисков предвзятости. Эту тенденцию можно увидеть на рисунке ниже.


Рисунок 4. (Источник: Отчет Стэнфордского университета об индексе искусственного интеллекта за 2022 год)

5. Нецелевое использование (для работы, образования и т. д.)
В целом генеративный ИИ может создавать вводящий в заблуждение, вредоносный или ненадлежащий контент в любом контексте.

Образование
В образовательном контексте генеративный ИИ может быть использован не по назначению, генерируя ложную или вводящую в заблуждение информацию, которая представляется как факт. Это может привести к тому, что студенты будут дезинформированы или введены в заблуждение. Более того, его можно использовать для создания материала, который не только фактически неверен, но и идеологически предвзят.

С другой стороны, студенты могут использовать генеративные инструменты ИИ, такие как ChatGPT, для подготовки домашних заданий по широкому кругу тем. После своего первого выпуска он вызвал жаркие дебаты по этой теме.6

Маркетинг
Генеративный ИИ может использоваться для неэтичных деловых практик, таких как манипулирование онлайн-отзывами в маркетинговых целях или массовое создание тысяч учетных записей с поддельными именами.

Вредоносное ПО/социальная инженерия
Генеративный ИИ может быть использован не по назначению для создания убедительных и реалистично звучащих атак социальной инженерии, таких как фишинговые письма или телефонные звонки. Эти атаки могут быть разработаны для того, чтобы обманом заставить людей раскрыть конфиденциальную информацию, такую ​​как учетные данные для входа или финансовую информацию, или убедить их загрузить вредоносное ПО.

6. Риск безработицы
Хотя еще слишком рано делать определенные выводы, существует риск того, что генеративный ИИ может способствовать безработице в определенных ситуациях. Это может произойти, если генеративный ИИ автоматизирует задачи или процессы, ранее выполнявшиеся людьми, что приведет к вытеснению людей-работников.

Например, компания внедряет генеративную систему ИИ для генерации контента для своих маркетинговых кампаний. Такой случай может привести к замене людей, которые ранее отвечали за создание этого контента.

Аналогично, если компания автоматизирует задачи обслуживания клиентов с помощью генеративного ИИ, это может привести к вытеснению людей из службы поддержки клиентов. Кроме того, поскольку некоторые модели ИИ способны генерировать код, они могут представлять угрозу для программистов.

Как решать этические проблемы в сфере генеративного ИИ?
Инструменты управления ИИ и безопасности LLM могут помочь смягчить некоторые из этих этических проблем в генеративном ИИ:

Авторство и авторские права с управлением на основе ИИ: инструменты управления на основе ИИ могут отслеживать и проверять авторство произведений, созданных с помощью ИИ, помогая определять права собственности и обеспечивая соблюдение ИИ законов об интеллектуальной собственности.
Смягчение предвзятости и этическое использование с помощью инструментов безопасности LLM: инструменты безопасности LLM могут отслеживать и корректировать предвзятость в режиме реального времени, реализуя дифференциальные методы конфиденциальности для обеспечения честного и беспристрастного контента, генерируемого ИИ. Кроме того, эти инструменты могут помочь предотвратить неправильное использование генеративного ИИ в образовательных учреждениях и других контекстах, контролируя точность и соблюдение этических норм выходных данных.