Естественный пользовательский интерфейс

редактировать

В вычислениях, естественный пользовательский интерфейс или NUI или естественный интерфейс - это пользовательский интерфейс, который фактически невидим и остается невидимым, поскольку пользователь постоянно осваивает все более сложные взаимодействия. Слово «естественный» используется потому, что в большинстве компьютерных интерфейсов используются искусственные устройства управления, работу которых необходимо изучить.

NUI полагается на возможность пользователя быстро перейти от новичка к эксперту. Хотя интерфейс требует обучения, это обучение облегчается дизайном, который дает пользователю ощущение, что он мгновенно и постоянно добивается успеха. Таким образом, «естественный» относится к цели в пользовательском опыте - чтобы взаимодействие происходило естественно при взаимодействии с технологией, а не к естественности самого интерфейса. Это контрастирует с идеей интуитивно понятного интерфейса, относящегося к интерфейсу, который можно использовать без предварительного обучения.

Было предложено несколько дизайнерских стратегий, которые достигли этой цели с разной степенью успеха. Одна из стратегий - использование «реального пользовательского интерфейса » («RUI »), также известного как «реальность интерфейсов » (RBI ) методы. Одним из примеров стратегии RUI является использование носимого компьютера для визуализации объектов реального мира «кликабельными», т. Е. Чтобы пользователь мог щелкнуть любой повседневный объект, чтобы он функционировал как гиперссылка, таким образом слияние киберпространства и реального мира. Поскольку термин «естественный» вызывает ассоциации с «миром природы», RBI часто путают с NUI, хотя на самом деле они являются лишь одним из средств достижения этого.

Одним из примеров стратегии разработки NUI, не основанного на RBI, является строгое ограничение функциональности и настройки, так что пользователям очень мало что нужно изучить при работе с устройством. При условии, что возможности по умолчанию соответствуют целям пользователя, интерфейс прост в использовании. Это всеобъемлющая стратегия дизайна в iOS от Apple. Поскольку этот дизайн совпадает с дисплеем с прямым сенсорным экраном, люди, не являющиеся разработчиками, обычно ошибочно приписывают легкость взаимодействия с устройством этому мультисенсорному дисплею, а не дизайну программного обеспечения, в котором оно фактически находится.

Содержание

  • 1 История
  • 2 Ранние примеры
    • 2.1 Мультитач
  • 3 Примеры интерфейсов, обычно называемых NUI
    • 3.1 Perceptive Pixel
    • 3.2 Microsoft PixelSense
    • 3.3 3D Immersive Touch
    • 3.4 Xbox Kinect
  • 4 См. Также
  • 5 Примечания
  • 6 Ссылки

История

Развитие пользовательских интерфейсов

В 1990-е годы Стив Манн разработал ряд стратегий пользовательского интерфейса, использующих естественное взаимодействие с реальным миром в качестве альтернативы интерфейсу командной строки (CLI) или графическому пользовательскому интерфейсу (GUI). Манн назвал эту работу «естественными пользовательскими интерфейсами», «прямыми пользовательскими интерфейсами» и «вычислениями без метафор». Технология Mann EyeTap обычно воплощает пример естественного пользовательского интерфейса. Использование Манном слова «естественный» относится как к естественным действиям человека, так и к использованию самой природы, то есть физики (естественная философия), и к окружающей среде. Хорошим примером NUI в обоих этих смыслах является гидроулофон, особенно когда он используется в качестве устройства ввода, в котором прикосновение к естественному элементу (воде) становится способом ввода данных. В более общем смысле, класс музыкальных инструментов, называемых «физифонами», названных так от греческих слов «Physika», «Physikos» (природа) и «phone» (звук), также был предложен как «естественные пользовательские интерфейсы».

В 2006 году Кристиан Мур основал открытое исследовательское сообщество с целью расширить обсуждение и развитие технологий NUI. В презентации на конференции 2008 года «Предсказание прошлого» Август де лос Рейес, главный директор по взаимодействию с пользователем в Microsoft Surface Computing, описал NUI как следующий этап эволюции после перехода от CLI к GUI. Конечно, это тоже чрезмерное упрощение, поскольку NUI обязательно включают визуальные элементы - и, следовательно, графические пользовательские интерфейсы. Более точное описание этой концепции было бы описать ее как переход от WIMP к NUI.

В интерфейсе командной строки пользователям приходилось изучать искусственные средства ввода, клавиатуру и серию кодифицированных вводов с ограниченным диапазоном ответов, при этом синтаксис этих команд был строгим.

Затем, когда мышь включала графический интерфейс, пользователи могли более легко изучать движения и действия мыши и могли гораздо больше исследовать интерфейс. Графический интерфейс пользователя полагался на метафоры для взаимодействия с экранным контентом или объектами. Например, «рабочий стол» и «перетаскивание» - это метафоры визуального интерфейса, который в конечном итоге был переведен обратно на строго кодифицированный язык компьютера.

Пример неправильного понимания термина NUI был продемонстрирован на Consumer Electronics Show в 2010 году. «Теперь новая волна продуктов готова предоставить естественные пользовательские интерфейсы, поскольку эти методы управляющие электронные устройства призваны к еще более широкой аудитории ».

В 2010 году Билл Бакстон из Microsoft подтвердил важность NUI в корпорации Microsoft, представив видео, в котором обсуждались технологии, которые можно использовать при создании NUI, и его будущий потенциал.

В 2010 году Дэниел Вигдор и Деннис Виксон представили в своей книге операционализацию создания естественных пользовательских интерфейсов. В нем они тщательно различают естественные пользовательские интерфейсы, технологии, используемые для их достижения, и пользовательский интерфейс, основанный на реальности.

Ранние примеры

Мультитач

Когда Билла Бакстона спросили об интерфейсе iPhone, он ответил: «Технологии мультитач имеют долгую историю.. Для сравнения: первоначальная работа, проделанная моей командой, была проделана в 1984 году, в том же году, когда был выпущен первый компьютер Macintosh, и мы не были первыми ».

Multi-Touch - это технология что могло бы обеспечить естественный пользовательский интерфейс. Однако большинство наборов инструментов пользовательского интерфейса, используемых для создания интерфейсов, выполняемых с помощью такой технологии, являются традиционными графическими интерфейсами.

Примеры интерфейсов, обычно называемых NUI

Perceptive Pixel

Одним из примеров является работа, проделанная Джефферсоном Ханом над мультитач интерфейсы. На демонстрации на TED в 2006 году он продемонстрировал различные способы взаимодействия с экранным контентом, используя как прямые манипуляции, так и жесты. Например, чтобы сформировать на экране клейкую массу, Джефф буквально «щипает», толкает и тычет ее пальцами. Например, в графическом интерфейсе приложения для дизайна пользователь будет использовать метафору «инструменты», чтобы сделать это, например, выбрав рабочий инструмент или выбрав две части массы, которые они затем хотели бы применить. действие к. Хан показал, что взаимодействие с пользователем может быть намного более интуитивным, если отказаться от устройств взаимодействия, к которым мы привыкли, и заменить их экраном, способным обнаруживать гораздо более широкий спектр человеческих действий и жестов. Конечно, это допускает только очень ограниченный набор взаимодействий, которые четко соответствуют физическим манипуляциям (RBI). Расширение возможностей программного обеспечения за пределы физических действий требует значительно большего объема проектных работ.

Microsoft PixelSense

Microsoft PixelSense использует аналогичные идеи о том, как пользователи взаимодействуют с контентом, но добавляет возможность устройству оптически распознавать объекты, расположенные поверх него. Таким образом, пользователи могут запускать действия на компьютере с помощью тех же жестов и движений, которые позволял сенсорный экран Джеффа Хана, но также объекты становятся частью механизмов управления. Так, например, когда вы ставите бокал для вина на стол, компьютер распознает его как таковой и отображает контент, связанный с этим бокалом. Размещение бокала на столе хорошо согласуется с действиями, выполняемыми с бокалами для вина и другими столами, и, таким образом, хорошо отображается на интерфейсах, основанных на реальности. Таким образом, это можно рассматривать как начало опыта NUI.

3D Immersive Touch

«3D Immersive Touch» определяется как прямое манипулирование объектами трехмерной виртуальной среды с использованием оборудования с одной или несколькими сенсорными поверхностями в многопользовательских трехмерных виртуальных средах. Создан впервые в 2007 году для описания и определения принципов обучения трехмерному естественному пользовательскому интерфейсу, связанных с Edusim. Естественный пользовательский интерфейс Immersive Touch теперь, кажется, приобретает более широкую направленность и значение благодаря более широкой адаптации поверхностного и сенсорного оборудования, такого как iPhone, iPod touch, iPad и растущего списка другого оборудования. Apple, похоже, также проявляет большой интерес к естественным пользовательским интерфейсам «Immersive Touch» в течение последних нескольких лет. Эта работа строится на широкой академической базе, изучающей 3D-манипуляции в средах виртуальной реальности.

Xbox Kinect

Kinect - это устройство ввода с датчиком движения от Microsoft для Xbox 360 игровая консоль и Windows ПК, которые используют пространственные жесты для взаимодействия вместо игрового контроллера. Согласно странице Microsoft, Kinect разработан для «революционно нового способа игры: контроллер не требуется». Опять же, поскольку Kinect позволяет ощущать физический мир, он показывает потенциал для дизайна RBI и, следовательно, потенциально также для NUI.

См. Также

Примечания

Ссылки

Последняя правка сделана 2021-05-31 12:37:33
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте