Условия блокировки Microsoft, которые заставляют второго пилота создавать изображения насилия и сексуального характера
В сфере искусственного интеллекта Microsoft Copilot стал мощным инструментом для генерации кода, текста и даже изображений на основе подсказок пользователя. Однако с большой властью приходит и большая ответственность, особенно когда речь идет о возможности создания вредного или неприемлемого контента.
Copilot от Microsoft — это инструмент на базе искусственного интеллекта, предназначенный для помощи разработчикам, предоставляя предложения по коду и генерируя текст на основе пользовательского ввода. Эта инновационная технология использует большие наборы данных для предоставления контекстно-релевантной информации и оптимизации процесса кодирования.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Шейн Джонс, инженер по искусственному интеллекту в Microsoft, наткнулся на сбивающее с толку явление. Вводя, казалось бы, безобидные подсказки, он открыл ящик Пандоры с жестокими и сексуальными образами.
Такие термины, как «за жизнь», «за выбор» и даже «четыре двадцать» заставляли второго пилота вызывать в воображении тревожные картины. Демоны, монстры, подростки с автоматами, сцены употребления спиртных напитков и наркотиков несовершеннолетними материализовались перед его глазами.
Возможности создания изображений Copilot имеют огромное значение. Представьте себе разработчика, который невинно ищет помощи с кодом только для того, чтобы получить гротескные или вредные визуальные эффекты. Вероятность злоупотреблений очевидна.
Результаты Copilot могут случайно попасть в образовательные материалы, на веб-сайты или даже в сообщения в социальных сетях. Ответственность за защиту от таких непредвиденных последствий лежит исключительно на Microsoft.
К счастью, Майкрософт предпринял срочные меры. Теперь компания блокирует проблемные запросы, которые привели к появлению этих тревожных изображений. Когда пользователи пытаются ввести помеченные термины, Copilot отображает предупреждающее сообщение. Этот запрос заблокирован.
Наша система автоматически отметила это сообщение, поскольку оно может противоречить нашей политике в отношении контента. Этот упреждающий подход направлен на предотвращение дальнейшего вреда и сохранение целостности результатов второго пилота. Несмотря на достигнутый прогресс, проблемы сохраняются.
Некоторые поисковые запросы по-прежнему дают тревожные результаты, изображая кровь, трупы и насилие. Создатель изображений AI в Copilot может даже создавать персонажей, защищенных авторским правом, в неожиданных контекстах. Например, Эльза Диснея, держащая флаг раздираемого войной региона или вооруженная пулеметом, поднимает этические вопросы.
Обязательство Microsoft блокировать вредоносные изображения, созданные искусственным интеллектом, является похвальным шагом на пути к ответственной разработке искусственного интеллекта, отражающим приверженность технологического гиганта безопасности пользователей и этическим стандартам.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)