Условия блокировки Microsoft, которые заставляют второго пилота создавать изображения насилия и сексуального характера

В сфере искусственного интеллекта Microsoft Copilot стал мощным инструментом для генерации кода, текста и даже изображений на основе подсказок пользователя. Однако с большой властью приходит и большая ответственность, особенно когда речь идет о возможности создания вредного или неприемлемого контента.

Copilot от Microsoft — это инструмент на базе искусственного интеллекта, предназначенный для помощи разработчикам, предоставляя предложения по коду и генерируя текст на основе пользовательского ввода. Эта инновационная технология использует большие наборы данных для предоставления контекстно-релевантной информации и оптимизации процесса кодирования.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Шейн Джонс, инженер по искусственному интеллекту в Microsoft, наткнулся на сбивающее с толку явление. Вводя, казалось бы, безобидные подсказки, он открыл ящик Пандоры с жестокими и сексуальными образами.

Такие термины, как «за жизнь», «за выбор» и даже «четыре двадцать» заставляли второго пилота вызывать в воображении тревожные картины. Демоны, монстры, подростки с автоматами, сцены употребления спиртных напитков и наркотиков несовершеннолетними материализовались перед его глазами.

Возможности создания изображений Copilot имеют огромное значение. Представьте себе разработчика, который невинно ищет помощи с кодом только для того, чтобы получить гротескные или вредные визуальные эффекты. Вероятность злоупотреблений очевидна.

Условия блокировки MicrosoftУсловия блокировки Microsoft

Результаты Copilot могут случайно попасть в образовательные материалы, на веб-сайты или даже в сообщения в социальных сетях. Ответственность за защиту от таких непредвиденных последствий лежит исключительно на Microsoft.

К счастью, Майкрософт предпринял срочные меры. Теперь компания блокирует проблемные запросы, которые привели к появлению этих тревожных изображений. Когда пользователи пытаются ввести помеченные термины, Copilot отображает предупреждающее сообщение. Этот запрос заблокирован.

Наша система автоматически отметила это сообщение, поскольку оно может противоречить нашей политике в отношении контента. Этот упреждающий подход направлен на предотвращение дальнейшего вреда и сохранение целостности результатов второго пилота. Несмотря на достигнутый прогресс, проблемы сохраняются.

Некоторые поисковые запросы по-прежнему дают тревожные результаты, изображая кровь, трупы и насилие. Создатель изображений AI в Copilot может даже создавать персонажей, защищенных авторским правом, в неожиданных контекстах. Например, Эльза Диснея, держащая флаг раздираемого войной региона или вооруженная пулеметом, поднимает этические вопросы.

Обязательство Microsoft блокировать вредоносные изображения, созданные искусственным интеллектом, является похвальным шагом на пути к ответственной разработке искусственного интеллекта, отражающим приверженность технологического гиганта безопасности пользователей и этическим стандартам.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *