Рекорд беспристрастности: OpenAI хвалит ChatGPT но видит недостатки
Компания заявляет о минимальном уровне предвзятости в истории системы но признает что идеал еще не достигнут
Основные идеи
Мнение автора
В наших тестах ChatGPT показывает 60% левых vs 49% правых предубеждений — это прогресс. Но модель всё ещё отказывается отвечать на 8% запросов, блокируя нейтральные вопросы.
Проблема предубеждений преследовала ИИ-чат-ботов с тех пор, как несколько лет назад появился ChatGPT и изменил весь ландшафт разговорных ассистентов. Исследования неоднократно выявляли, как ответы чат-ботов демонстрируют гендерные, политические, расовые и культурные предубеждения. Теперь OpenAI заявляет, что его последняя модель GPT-5 для ChatGPT — наименее предвзятая, по крайней мере, когда дело доходит до политики.
В чем суть?
ИИ-гигант провел внутреннее исследование и протестировал модели ChatGPT на эмоционально заряженных запросах, чтобы проверить, могут ли они сохранять объективность. Команда создала оценку политической предвзятости на основе реального человеческого дискурса, включающую около 500 запросов по 100 темам с политическими наклонностями.
«GPT-5 instant и GPT-5 thinking показывают улучшенные уровни предвзятости и большую устойчивость к заряженным запросам, снижая предвзятость на 30% по сравнению с нашими предыдущими моделями», — говорит OpenAI, добавляя, что он работает лучше, чем предыдущие модели рассуждений, такие как GPT-4o и o3.

В дальнейшей оценке компания заявляет, что менее 0,01% всех ответов ChatGPT имеют политический уклон. Совокупные цифры не слишком удивляют. В недавнем внутреннем исследовании компания заявила, что большинство из 800 миллионов активных пользователей ChatGPT полагаются на чат-бота для получения рекомендаций, связанных с работой, и более приземленных дел, а не ищут в нем убежища в качестве эмоционального или романтического компаньона.
Это не вся картина
Политическая предвзятость в ответах чат-ботов, несомненно, плохая ситуация, но это лишь малая часть более крупной проблемы. Анализ MIT Technology Review показал, что вирусный видеогенератор OpenAI Sora AI может создавать тревожные визуальные эффекты, демонстрирующие кастовые предубеждения, которые веками приводили к преследованиям и дискриминации угнетенных сообществ в Индии.
В отчете отмечается, что «видео, созданные Sora, выявили экзотизированные и вредные представления об угнетенных кастах — в некоторых случаях, создавая изображения собак в ответ на запросы на фотографии людей-далитов».
В статье, опубликованной в Indian Express всего несколько месяцев назад, Дхирадж Сингха из Digital Empowerment Foundation продемонстрировал, как ChatGPT неправильно назвал его из-за укоренившихся кастовых предубеждений в обучающих данных.

Статья, появившаяся в майском номере журнала «Компьютеры в человеческом поведении: Искусственные люди» за 2025 год, показала, что ИИ-боты, такие как ChatGPT, могут распространять гендерные предубеждения.
Исследование, опубликованное в «Журнале клинической и эстетической дерматологии», показало, как ChatGPT предвзят к стандартам красоты определенного типа кожи.
Другой анализ, опубликованный Международным советом по открытому и дистанционному образованию, отмечает, что мы только коснулись поверхности проблемы предвзятости ИИ-чат-ботов, поскольку оценка в основном сосредоточена на таких областях, как инженерия и медицина, в то время как язык охвачен в основном. В документе подчеркивается риск предвзятости в образовательном контексте для неанглоязычной аудитории.
Создавайте захватывающие видео с помощью AI: Google Vids теперь доступен для всех!













