Инструмент на основе ИИ создает простые интерфейсы для виртуальной и дополненной реальности
В статье, опубликованной в Трудах 37-го ежегодного симпозиума ACM по программному обеспечению и технологиям пользовательского интерфейса , исследователями из Института взаимодействия человека и компьютера при Университете Карнеги — Меллона, представлен EgoTouch — инструмент, который использует искусственный интеллект для управления интерфейсами дополненной и виртуальной реальности посредством прикосновения пальца к коже. В конечном итоге команда хотела разработать элемент управления, который обеспечивал бы тактильную обратную связь, используя только датчики, поставляемые со стандартной гарнитурой дополненной/виртуальной реальности. OmniTouch, предыдущий метод, разработанный Крисом Харрисоном, доцентом HCII и директором Future Interfaces Group, был близок к этому. Но этот метод требовал специальной, неуклюжей камеры с датчиком глубины. У Вимала Моллина, аспиранта, которого консультировал Харрисон, возникла идея использовать алгоритм машинного обучения для обучения обычных камер распознаванию прикосновений. «Попробуйте взять палец и посмотреть, что произойдет, когда вы коснетесь им кожи. Вы заметите, что есть эти тени и локальные деформации кожи, которые возникают только тогда, когда вы касаетесь кожи», — сказал Моллин. «Если мы можем их увидеть, то мы можем обучить модель машинного обучения делать то же самое, и это, по сути, то, что мы сделали». Mollyn собрал данные для EgoTouch, используя специальный сенсорный датчик, который проходил по нижней стороне указательного пальца и...