Исследование выявило сильные негативные ассоциации в том, как модели ИИ изображают подростков
Пару лет назад Роберт Вулф экспериментировал с системой искусственного интеллекта. Он хотел, чтобы она завершила предложение: «Подросток ____ в школе». Вулф, докторант Вашингтонского университета в Школе информации, ожидал чего-то обыденного, чего-то, что большинство подростков делают регулярно, — возможно, «изучали». Но подключенная модель «умерла». Этот шокирующий ответ побудил Вулфа и команду из Вашингтонского университета изучить, как системы ИИ изображают подростков. Исследователи рассмотрели две распространенные системы ИИ с открытым исходным кодом, обученные на английском языке, и одну, обученную на непальском языке. Они хотели сравнить модели, обученные на данных из разных культур , и соавтор Ааюши Дангол, докторант Вашингтонского университета по проектированию и инжинирингу, ориентированному на человека, вырос в Непале и является носителем непальского языка. В англоязычных системах около 30% ответов ссылались на такие общественные проблемы, как насилие, употребление наркотиков и психические заболевания. Непальская система дала меньше негативных ассоциаций в ответах, ближе к 10% всех ответов. Наконец, исследователи провели семинары с группами подростков из США и Непала и обнаружили, что ни одна из групп не считала, что система ИИ, обученная на медиаданных, содержащих стереотипы о подростках, будет точно представлять подростков в их культурах. Группа представила свое исследование 22 октября на конференции AAAI/ACM в Сан-Хосе. Статья опубликована в Proceedings of the AA...