Как обычные люди могут улучшить надежность искусственного интеллекта
Новое исследование демонстрирует, что привлечение людей без специальных знаний в области искусственного интеллекта к разработке и оценке ИИ-систем способно значительно повысить их справедливость, прозрачность и доверие к автоматизированным решениям. Ученые из ведущих британских университетов провели эксперимент с участием общественности для анализа двух реальных приложений, результаты которого будут представлены на крупной международной конференции по взаимодействию человека и компьютера.
Основная проблема современных ИИ-систем заключается в том, что их разработкой и тестированием занимаются преимущественно инженеры и специалисты по данным. Это нередко приводит к ситуациям, когда алгоритмы принимают некачественные решения из-за неучтенных социальных или экономических факторов. Участники исследования подчеркнули, что вовлечение широкого круга людей на ранних этапах создания ИИ-продуктов помогает выявить потенциальные проблемы до их возникновения.
Как работает партисипативный аудит ИИ?
В отличие от традиционных методов оценки, где эксперты анализируют системы с технической точки зрения, партисипативный аудит предполагает участие людей, которые могут столкнуться с последствиями работы алгоритмов. Хотя такие участники не разбираются в тонкостях машинного обучения, они способны дать ценные оценки с этической и социальной точек зрения.
Исследование показало, что люди без технической подготовки проявляют высокий интерес к участию в разработке ИИ-систем с самого начала. Однако для эффективного вовлечения им необходима поддержка и специальные инструменты, которые помогут структурировать процесс аудита. Участники отметили, что важно получать четкие объяснения целей и задач ИИ-приложений, а также понимать, кто проводит оценку.
Практические результаты исследования
В рамках эксперимента 17 добровольцев — представители пациентов, учителя и родители — оценивали два ИИ-инструмента, применяемых в здравоохранении и образовании:
- SPARRA — система NHS Scotland, прогнозирующая вероятность повторной госпитализации пациентов в течение года;
- SAM — прототип для анализа привязанности детей 5–9 лет к родителям на основе речи, разработанный в Университете Глазго.
Участники должны были выявить потенциальные последствия работы систем, предложить способы их измерения и разработать инструменты для аудита. Все добровольцы согласились, что люди, на которых влияют решения ИИ, должны участвовать в его создании на всех этапах — от проектирования до внедрения.
Особое внимание участники уделили необходимости фиксировать не только негативные, но и позитивные эффекты ИИ-систем. Они также предложили ввести третью категорию оценки — «неоднозначно» — вместо бинарной системы «прошел/не прошел», чтобы точнее отражать сложные последствия.
Проблемы и перспективы
Профессор Симона Штумпф из Университета Глазго, ведущий исследователь проекта, отметила: «Во всем мире решения в государственном и частном секторах все чаще принимаются с помощью ИИ. Регулирование, такое как Акт ЕС об искусственном интеллекте (2024 год), направлено на минимизацию вреда от плохо спроектированных систем. Наше исследование предлагает структурированный подход и инструменты, которые позволят людям без технических знаний использовать свой жизненный опыт для выявления рисков и создания более надежных ИИ-систем».
Доктор Ева Фринджи, один из авторов исследования, добавила: «Участники легко выявляли потенциальные проблемы в работе приложений, иногда замечая то, что упустили разработчики. Однако им было сложно самостоятельно определить, как измерять последствия этих проблем. Введение пошаговых подсказок и примеров метрик значительно улучшило качество обратной связи».
Доктор Патриция Ди Кампли Сан Вито, соавтор работы, подчеркнула: «Партисипативный аудит может стать новым конкурентным преимуществом для ИИ-систем: приложение, проверенное разнообразной группой людей с самого начала, гораздо надежнее, чем продукт, созданный по принципу „двигайся быстро и ломай все“. Мы надеемся, что это исследование откроет путь к созданию доверительных ИИ-систем, которые изначально ориентированы на принятие наилучших решений».
Результаты исследования будут представлены на конференции CHI 2026 в Барселоне. В работе также приняли участие ученые из университетов Шеффилда, Стерлинга, Стратклайда и Йорка.
*Признаны экстремистскими организациями и запрещены на территории РФ.
Комментарии
Комментариев пока нет.