티스토리 뷰


Cameron Chapman이 쓴 미래의 유저인터페이스라는 글을 보았습니다. 향후 우리에게 새로운 혁신과 경험을 가져다 줄 될 10가지의 미래 UI를 이야기 하고 있습니다.

점점 영화 매트릭스와 아바타가 우리 생활에 완벽하게 녹아지는 시대가 다가오는 것 같습니다. 새로운 기술보다 새로운 UX가 우리의 삶을 변화 시켜준다고 저는 생각합니다. 지금 우리의 삶을 변화 시켜주고 있는 기술들은 개발된지 4년이 넘은것들이 대부분이죠.. 그 기술이 새로운 UX로 우리곁에 다가왔을때 우리의 삶이 혁신되는것 같네요.
 @SmachoGN(트윗아이디)님의 도움으로 번역하여 올려드립니다.

제목 : The Future Of User Interfaces
(원문 출처 :http://sixrevisions.com/user-interface/the-future-of-user-interfaces/)

user interfaces – 몇 년 동안 발전한 기술과 상호작용하는 방법

펀치카드부터 모니터 마우스, 키보드까지, 음성인식과 컴퓨터를 더 쉽게 사용하기 위해 제작된 인터페이스 는 지난 몇 십 년 동안 빠르게 발전해 왔다.
그러나 미래 인터페이스 디자인이 여전히 취해야 할 많은 것들이 있다. 우리는 이미 어떻게 우리의 생활을 변화시키는지에 대해 놀라고 있으며 몇 가지 시작들을 알고 있다.

여기에서는 향후 몇 년에 걸쳐 우리가 보게 될 10가지의 미래 UI를 다룬다.


1.Brain-Computer Interface
What it is : Brain-Computer Interface에서 컴퓨터는 생각에 의해 완전히 통제 된다. 이것에는 뇌파를 해석하는 직접적인 뇌 임플란트, 헬멧, 머리띠 등 몇 가지 다른 접근 방법이 있다.

Army Mind-Control Projects
Image source.

2008년 타임지의 기사에 따르면 미군은 실제로 "though helmets"을 추구하고 있다. 이것은 언젠가는 군인들 사이에서의 서로 마음을 읽는 대화를 가능하게 할 것이다. 기사에 따르면 그 목표는 전군의 체계를 단지 생각에 의해서 통제 하는 시스템이다. 비록 이런 기술들이 아직도 가야 할 길이 멀었지만 군은 켈리포니아 대학과 카네기 대학 그리고 매릴랜드 대학의 연구팀과 4백만 달러의 계약을 맺었으며 다음 10년 안에 아마도 이 시스템의 프로토타입을 보게 될 것이다.

The Matrixesque Brain Interface: MEMS-Based Robotic Probe
Image source.

caltech에서 연구원들은 뇌와 개개의 뉴런들이 상호작용할 수 있도록 전극을 심어주는 MEMS-Based Robotic Probe을 연구하고 있다. 매우 복잡한 것처럼 들리지만 인공관절과 또 이런 관절들과 비슷하게 신체를 콘트롤 할 수 있게 해주는 개념이다.  장비의 소프트웨어 부분은 완성이 되었으나 미세공학적 부분(실제로 뇌에 들어가는 부분)은 여전히 개발 중에 있다.

OCZ’s Neural Impulse Actuator

Image source.

NIA는 머리띠이면서 안구의 움직임과 얼굴 근육, 뇌파의 이동을 해석해주는 근전도와 뇌촬영, 안전도(눈 주변에 전극을 설치하여 표면상태 측정)를 합친 컨트롤러 이다. NIA의 가장 흥미로운 부분은 가상의 어떤 게임과 함께 동작을 설정하는 것이 가능하다는 것이다. 이 컨트롤러는 키보드 클릭 한번으로 간단히 해석이 가능하다.


2.Biometric and Cybernetic Interfaces
 What it is : 컴퓨팅에서 인공두뇌학은 로보틱 시스템과 이런 시스템들을 통제하고 명령하는 것으로 가장 많이 언급된다.
반면에 Biometric은 모든 인간들이 개별적으로 가지고 있는 유니크한 특성인 생물학적 표시로서 자주 언급된다. 이런 것들은 지문이나 망막 스캔과 같이 보안 목적으로 가장 많이 사용된다.

Warfighter Physiological Status Monitoring

Image source.

Military Operational Medicine Research Program은 군인들의 물리적인 상태를 모니터 하기 위해 옷에 내장할 수 있는 센서를 개발하는 것이다. 이것들은 실시간으로 건강을 체크할 수 있을 뿐 아니라 군이 작전 성공을 평가하기 위한 추가 변수들로서 사용할 수 있다.

Fingerprint Scanners
Image source.

지문과 손 스캐너는 고기능 보안 장치로서 오랫동안 영화에서 볼 수 있었다. 그리고 이런 기능들은 몇 년 전부터 마침내 이용 가능하게 되었다.
대부분의 경우 지문 스캔은 컴퓨터 시스템이나 장비, 그리고 통제 구역에 누군가의 접근을 허락 하거나 금지하는데 사용된다. 왜냐하면 지문은 사람마다 독특하고 언제, 어떤 접근에 대한 허가를 결정하는데 있어서 거의 잘못될 경우가 없는 방법이기 때문이다.

3.Digital Paper and Digital Glass
What it is : 디지털 페이퍼는 플렉서블하고 백라이트를 사용하지 않으며 실제 종이를 꽤 잘 따라 한  디스플레이의 종류이다. 대부분의 경우에 디지털 페이퍼는 장치가 디스플레이하는 것을 변경하는 경우를 제외하고는 전력을 필요로 하지 않는다. 또 배터리 수명도 매우 길다. 반면에 디지털 글라스는 LCD모니터와 비슷한 투명 디스플레이다.

Transparent OLED Display


삼성은 2010 CES에서 노트북에 탑재한 투명OLED 디스플레이의 쇼케이스를 가졌다. 삼성에 따르면 이것은 노트북에서 사용될 완성단계의 제품은 아니지만 미래에 MP3나 광고 디스플레이에서 사용될 것이라고 한다.

LG 19" Flexible Display

Image source.

플렉서블 e-paper 디스플레이는 언젠가 종이를 대체할 것이다.  딱딱한 디스플레이와는 달리 e-paper는 실제 종이처럼 매우 플렉서블 하며 얇다. LG가 개발한 e-paper는 플렉서블하고 얇은 금속 포일로 만들어 졌으며 그렇기 때문에 항상 원래의 모양으로 돌아온다. 이런 디스플레이는 신문을 읽을 때나 미래의 커다란 콘텐츠를 디스플레이 하는데 있어서 큰 인기를 끌 것이다.

E-Ink

Image source.

E-ink 기술은 포장 및 미디어 산업에서 흥미로운 기술이다. E-Ink는 등록상표가 붙은 실제로 사용되고 있는 기술이다. 이 기술은 현재 그레이스케일로 이용 가능하지만 가까운 미래에 풀 칼라로 이용 가능할 것이다. E-Ink는 the Kindle, Barnes & Noble’s Nook, and the Sony Reader를 포함한 ebook 리더기의 로 유명하다. 그리고 기존의 딱딱한 디스플레이에 적용 가능하다.


4.Telepresence
What it is : Telepresence는 드론이나 로봇의 리모트 콘트롤로 구성된다. 과학분야나 방위 분야에서 가장 일반적으로 볼 수 있으며, 무엇에 사용되는지에 따라 변화가 크다. 몇몇 경우에서는 단지 비쥬얼 인풋을 얻는 장비를 통제하기 위해서 사용되며, 다른 경우(의학적 Telepresence 장비)에서는 좀 더 완성된 시뮬레이션을 만드는데 사용된다. 아래 현재 진행되고 있는 몇 가지 Telepresence의 예가 있다.

Telepresence Surgery
최소침습수술은 지금 수술 로봇을 사용하는 Telepresence를 통해 시술되고 있다. 반면에 의사는 멀리 떨어져서 조종하고 있다. 사실 이 수술 방법은 실제로 사람이 수술하는 방법보다 더 나은 방법이다.
이 기술은 combines telerobotics, sensory devices, stereo imaging와 video 그리고 의사에게 실제 수술의 경험(느낌)을 전달해주는 텔레커뮤니케이션의 조합이다. 의사는 실시간으로 실제로 절개를 할 때의 느낌을 포함하여 실시간의 피드백을 전달 받는다.

Universal Control System

Image source.

Universal Control System 은 군의 무인비행기를 조종하기 위해 Raytheon에 의해 개발된 시스템이다. 그 인터페이스는 비디오 게임 다중 모니터와 오퍼레이터가 볼 수 있도록 120도의 시야각을 제공하며 비디오 게임과 크게 다르지 않다.
Raytheon은 표준 컴퓨터 시스템을 사용하는 무인 비행기를 보았고 게임에 사용되는 시스템이 더 낫다는 것을 깨달았다. 그래서 민간 비즈니스 게임에 기초하여 무인비행기의 작동 시스템을 만들었다. (그리고 실제로 게임 개발자를 고용했다.) 이 시스템의 최종단계는 증강현실과 미래지향적 인터페이스 요소의 결합이다.

Space Exploration and Development
Telepresence는 인간에게 지구에서 우주를 경험하게 해주는데 사용될 것이다. 이 기술은 멀리 떨어진 행성을 여행하고 싶어하는 사람들에게 지구를 떠나지 않고도 경험하게 해줄 것이다.
이 기술의 가장 큰 장애물은 장거리에서 커뮤니케이션의 딜레이 이다. 그러나 몇 년 안에 이슈가 되지 않을 발전이 일어나고 있다.

5.Augmented Reality
What it is : 증강현실은 실제 세상에 실시간 이미지를 오버랩 시키는 것으로 구현된다. 현재 어플리케이션에서는 카메라가 지역을 기반으로 실시간 이미지를 캡쳐 하고 그리고 나서 모아진 정보를 겹쳐놓는 방식이다.
수 많은 증강현실 프로젝트들이 있으며 몇 가지 흥미로운 예가 아래에 있다.

Augmented Reality in a Contact Lens.

Image source.

현재 가장 흥미로운 증강현실 중에 하나는 콘택트렌즈와 디스플레이가 결합된 형태이다.
눈과 뇌의 전달 속도는 초고속 인터넷보다 훨씬 빠르다. 눈은 빛의 미세한 이동이나 수백만 칼라를 포함하여 우리가 느끼는 것보다 더 인식을 할 수 있다.
이런 것 때문에 눈이 직접적으로 캐치할 수 있는 인터페이스를 이해 할 수 있다.
현재 워싱턴 대학에서 이런 콘택트렌즈를 개발하고 있다. 이 렌즈들은 심플한 전기 회로나 RF를 사용하여 무선으로 충전이 가능한 빌트인 LED로 만들어지고 있다.
결굴 이런 콘택트렌즈들은 눈 앞에서 이미지와 글자 그리고 다른 정보들을 디스플레이 할 수 있는 수 백 개의 작은 LED들로 구성될 것이다.

Wearable Retinal Display
Image source.

Universal Translator는 Star Trek universe에서 종 들간에 의사소통을 가능하게 만들었다.
Universal Translator가 먼 일처럼 보일 때 NEC는 이미 서브 타이틀로 외국 언어를 번역해 주는 “Tele Scouter”라는 망막 디스플레이를 개발하고 있다. 이 장치는 안경의 프레임에 장착하며 디스플레이와 마이크로폰을 포함한다. 소리는 번역을 위해 중앙 서버로 보내지고 그 다음은 서브타이틀이 다시 장비로 보내지며 망막 디스플레이에 보여지게 된다. 가장 좋은 점은 텍스트가 유저의 주변 시야에 디스플레이 된다는 것이다. 이것은 함께 대화하는 사람에게 눈이 접촉을 유지하고 있다는 의미이다.


Heads-Up Display

 Image source.

Heads-Up Display는 증강현실의 형태 중에 하나이며 그 첫번째는 군에서 활용되었다. 그리고 나서 상업 항공사나 자동차 산업에 응용되고 있다.
HUDs는 작동하는 사람이 주변으로 눈길을 돌리는 것 없이 비행기나 자동차의 유리에 데이터를 디스플레이 하는 방식이다.
자동차의 경우 HUDs는 야간에 자동차에 유리에 상황을 보여주는데 유용하다. 이것은 운전자가 앞에 있는 도로에 집중하도록 도와준다. 
미래에 HUDs는 합성 버전 시스템으로 사용될 것이다. 다른 말로 하자면, 작동자가 그들의 시야에서 보는 모든 것들이 실제 보이는 것보다는 데이터베이스에서 얻어진 정보로부터 구성되어 진다는 것이다.

이 시스템은 아직 먼 이야기이지만, 기기가 디자인 되는 방법을 변화시킬 것이며 더 안전한 비행기와 자동차를 만들 수 있을 것이다. 왜냐하면 운전자가 그들의 주변에 직접적인 시야를 필요로 하지 않기 때문이다.


Privacy Concerns with Augmented Reality

Privacy Specialist들에게 증강현실 어플리케이션은 field day가 될 것이다. 결국, 사람을 쉽게 찾아 보거나 얼굴 인식을 통해 개인정보를 얻을 것이다. 이런 것을 실현하기 위한 기술을 멀지 않았다. 당신은 붐비는 레스토랑에서 사람을 간단히 찾을 수 있고 그들의 이름, 페이스북과 트위터, 전화번호 그리고 다른 정보들을 손 끝 하나로 찾을 수 있을 것이다. 이런 증강현실 기술들은 확실히 거의 사용 단계에 왔으며 또한 큰 수고 없이 누군가가 당신의 정보에 접근하는 것에 대해 알 수 있다. 이런 기술은 팝업 형태로 이미 시작하고 있다.

 6.Voice Control
What it is : 우리는 수 해 동안 공상과학 영화나 소설에서 보이스콘트롤을 봐왔다. 이 기술은 목소리를 통해 컴퓨터를 명령을 내리는 기술이다. 보이스 콘트롤은 몇몇 형태로 제공 됐지만 그 것에 대한 응용은 최근에서야 이루어지고 있다. 밑에 몇 가지 예가 있다.

BMW Voice Control System
럭서리 자동차 브랜드 BMW는 내비게이션과 엔터테인먼트 시스템을 작동할 수 있도록 새로운 보이스 콘트롤 시스템을 개발하였다. 하나의 목소리로 목적지에 대한 방향을 결정하도록 하고 특정 노래를 재생할 수 있게 한다.
다른 자동차 업체들도 이런 비슷한 음성인식 시스템을 시도하고 있지만 BMW의 음성인식이 가장 뛰어난 것으로 평가된다.

Google Voice Search

Image source.

만일 당신이 안드로이드 기반의 스마트폰을 사용한다면 아마 구글 음성 검색과 같은 기능을 이미 경험했을 것이다. 이 기술을 누구나 이용할 수 있는 것은 아니지만, 복잡한 검색어를 타이핑 하지 않고 간단하게 찾고자 하는 것을 검색할 수 있다. 구글 보이스의 최고의 특징은 안드로이드 플랫폼에 한정되지 않는다는 것이다. 구글보이스는 블렉베리와 아이폰 그리고 윈도 모바일 폰과 노키아 s60에서도 작동한다.
만약 당신이 어떤 것을 빠르게 찾고자 하고 운전 중이라면 음성 인식은 유용하다. 안드로이드 플랫폼은 네비게이션과 연동이 가능하다.

7.Gesture Recognition
What it is : 동작인식과 함께 손과 발의 움직임 아니면 다른 신체 부분의 움직임은 컴퓨터( 콘트롤러나 음직임을 캡쳐하는 카메라, 그리고 글러브와 같은 인풋 장비)에 의해 해석 될 수 있다.
동작 인식의 인기는 많은 잠재적 사용 가능성을 가진 비디오 게임을 즐기는 사람들에 기인한다.


Acceleglove: Gloves that Recognize Sign Language

Image source.

조지 워싱턴 대학의 연구원들은 미국인의 몸동작을 텍스트로 번역해주는 Acceleglove라는 글러브를 개발하고 있다.
이것은 움직임에 따른 정확한 작동보다는 마이크로 컨트롤러에 전기신호를 보내기 위해 팔꿈치나 어깨에 있는 다른 센서들과 함께 글러브 각 손가락에 있는 Accelemeterer들을 사용함으로써 작동한다.
이 장치는 손의 시작 위치를 기반으로 , 중간의 움직임 그리고 마지막 움직임을 기반으로  표시를 결정한다. 이 장치는 sign이 끝난 후에 정확한 언어로 결과를 내는데 불과 수 밀리 초 밖에 걸리지 않는다.

Gesture-Based Control for TVs
Image source.

심플한 UI를 가지고 있는 TV는 가장 완벽하게 동작 인식을 활용할 수 있는 기기이다. 이런 동작 인식을 기반으로 한 티비는 이미 이용 가능하다.  2009년 International Consumer Electronics Show에서 이런 동작인식을 기반으로 한 티비의 시연이 있었다. 파나소닉은 손짓으로 다양한 것들을 할 수 있는 터치 스크린을 가진 리모트 콘트롤을 개발했다.
그러나 히타치는 3D 카메라를 사용하여 훨씬 더 큰 스케일의 동작을 인식할 수 있는 티비를 가지고 나왔다. 이 TV는 손짓으로 채널을 변경하고 볼륨을 조절하고 심지어 티비를 끄고 켤 수 있다.

Nintendo Wii
Image source.

닌텐도 위는 아마 처음으로 동작인식 시스템을 채용한 게임 기기일 것이다. 물론 닌텐도 위의 동작 인식 시스템은 당신이 위 전용 Remote & Numchuk을 가지고 있어야 동작을 인식할 수 있지만 그래도 이 기술은 게임 산업에서 선구자 적인 역할을 하고 있다. 그리고 미래에 위는 게임뿐만 아니라 일반적인 컴퓨터 산업에서처럼 비슷한 콘트롤 시스템을 채택할 것이다.


Xbox Project Natal


Project Natal 은 Wii의 동작인식 시스템 보다 더 발전한 시스템이다.  리모트 콘트롤이 필요하지 않으며, 유저는 간단히 실제 세상에서 공을 차기 위해 킥 모션을 하는 것처럼 스크린에 간단히 인터랙션 하면 된다. 이 시스템은 콘트롤러를 필요치 않기 때문에 게임에 더욱 집중하도록 만들어 준다.

8.Head and Eye Tracking
What it is : 머리와 눈 추적 기술은 눈과 머리의 움직임을 해석해준다.

Gran Turismo 5

Image source.

Gran Turismo는 가장 현실적인 레이싱 게임들 중 하나로써 선구자적인 역할을 해왔다. 그러나 Gran Turismo5는 한 단계 더 발전했다. Gran Turismo5는 머리 트래킹 기술을 포함한다. 플레이 스테이션의 eye 카메라는 플레이어의 머리를 트래킹하고 자동차의 운전석안에서 시야를 조절할 수 있다. 이 기술은 운전하는 동안 실제에 가까운 경험을 하도록 만들어 준다. 당신은 어느 한 쪽을 힐끗 볼 수 있으며, 당신의 시야를 잃어버리지 않고 빠르게 다른 쪽을 볼 수 있도록 해준다.

Pseudo-3D with a Generic Webcam
크리스 해리슨은 일반적인 웹캠과 함께 작동하는 머리 추적 시스템을 개발했다. 이 시스템은 Mac OX에서 이용가능 하며, 3D 인터페이스 장비와 함께 사용할 수 있다. 가장 흥미로운 점은 이런 종류의 기술은 기존의 기술을 사용하여 쉽게 만들 수 있다는 것이다.

9. Artificial Intelligence
What it is: 인공지능은 인간의 인풋으로부터 배울 수 있는 비생명체 시스템으로 구성된다. 이미 이런 배우는 능력을 흉내 내는 시스템을 만들어 왔지만 어떤 방식에 의한 제한이 있었다. 결국에는 컴퓨터들은 프로그래밍을 넘어 성장하고 배우는 능력을 갖게 될 것이다.  우리가 Skynet Funding Bill이 통과되는 것을 알기 전에는 단지 시간 만이 문제가 될 것이다.
아래 지금 진행되고 있고 계획이 있는 몇 가지 인공지능에 대한 예가 있다.

Cyber Security Knowledge Transfer Network
영국에서 경찰들은 테러에 대한 감시와 데이터 마이닝, 온라인의 익명성, 그리고 인터넷 사기 방지를 위한 대책으로 인공지능을 어떻게 사용 할 지를 연구하고 있다.
그들은 또한 유용한 정보를 어떻게 수집하기 위한 방법과 웹하드의 보존에 대하여 어떻게 인공지능 프로그램을 이용할지를 연구하고 있다.
Digital forensics(범죄에 대한 증거를 확실하게 하기 위한 방법)은 인공지능의 도움으로 보다 효과적이게 될 것이다. 그래서 앞으로는 인공지능을 법의 집행에 접목시키는 보다 많은 프로젝트들을 볼 수 있기를 기대한다.

AI for Adaptive Gaming

Image source.

인공지능은 게임을 보다 매력적이고 현실적으로 만들어 준다. 인공지능은 단지 미리 프로그램 된 인터랙션에 따라 플레이 하기 보다는 플레이어의 게임 중간에 적용하도록 해준다.
비디오 게임에서 인공지능을 시뮬레이트 하는 몇 가지 기술들이 진행되고 있으나 진정한 인공지능은 아직 까지 이뤄지진 않았다.
다이나믹 스크립팅과 같은 더 새로운 기술들은 더욱 현실과 같은 게임 플레이를 할 수 있도록 새로운 수준의 인공지능 게임을 가져 올 것이다.

AI for Mission Control
나사와 세계 여러 우주(space) 기관들은 우리 계(System) 밖의 행성계를 탐험하는 탐사선을 조종할 수 있는 인공지능을 연구하고 있다. 무선 전송에서의 딜레이 때문에 탐사선이 멀리 갈수록 탐사선을 통제하거나 커뮤니케이션하는 것이 더 오래 걸린다. 그러나 결국 인공지능은 아마도 직접 조종하는 필요성을 거의 사라지게 만들 것이다.
이런 탐사선들은 새로운 자극에 지능적으로 반응 하게 될 것이며, 프로그램 된 대로 매분 움직이거나 데이터를 전송하는 것보다 오히려 복잡한 명령을 수행할 수 있을 것이다.

Virtual Assistants

Image source.

일상 생활의 업무 처리 보조자에 대한 필요성은 많은 사람들에게 있어 점점 커져가고 있다. 그러나 아직은 제한적이며, 특히 대부분은 개인적인 도움을 감당할 수 없다.
그러나 곧, 우리를 위해 예약을 대신 해주고 당신의 할머니의 75번 째 생일을 위한 선물을 찾아 주고 아니면 다음 프로젝트를 위한 연구를 도와줄 가상의 조수(assistant)를 갖게 될 것이다.
실제 인공지능과 아주 지능적인 프로그램의 정도는 다양화 될 것이지만 진정한 인공지능 시스템에는 명확한 잠재력 있는 어플리케이션들이 있다.

10. Multi-Touch
Image source.

what it is : 멀티 터치는 동작 인식과 비슷하다. 그러나 터치 스크린을 사용해야 한다. 전통적인 터치 스크린은 한 순간에 한 포인트에서의 신호를 받아들일 수 있다. 반면에 멀티 터치 스크린은 다양한 포인트에서 동시에 신호를 받을 수 있다.
이 기술은 아직 이용되지 않은 잠재력이 많이 있지만 멀티 터치를 이용한 많은 상품들이 이미 있다.

Microsoft Surface

마이크로소프트의 표면 기술은 테이블이나 디스플레이와 같은 것들에 내장되어 있는 커다란 멀티 터치 시스템이다.
디즈니의 토모로우랜드 리조트나 MSNBC’s election coverage와 같은 다양한 장소에서 사용 중에 있다.
큰 스케일과 이 시스템의 사용성 때문에 한번에 여러 개의 손가락의 신호를 받아들일 뿐만 아니라 동시에 여러 사용자의 신호를 받아 들일 수 있다. 이 시스템은 멀티 터치 외에 사용자가 물건을 스크린 위에 실제 물건들을 놓으면 인식 할 수 있는 능력을 가지고 있다.

 Apple Products

Image source.

애플은 몇 년 동안 멀티 터치 기술의 리더였다. 아이폰은 멀티 터치를 사용하는 첫번째 주류 소비자 상품이며, 아이팟 터치, 맥북 track-pad, Mighty Mouse에서 또한 사용 되어 왔다. 멀티 터치는 Mac OSX기반 그리고 아이폰 OS 기반 UX의 핵심 기술이 되어 왔다. 스크롤부터 줌인, 줌 아웃 등 모든 동작들은 멀티터치 인터페이스를 사용함으로써 실행될 수 있다.

Mobile Phones
아이폰 외에 다른 모바일 장비들도 멀티터치 능력을 가지고 있다. Palm Pre와 Pixi, Motorola Droid, HTC Hero 와 HD2도 모두 멀티 터치 기술을 가지고 있다.
대부분 이런 멀티터치 폰들은 웹을 브라우징 할 때 줌인 이나 줌 아웃과 같은 간단한 작업에 사용되고 있다. 이런 멀티 터치 기능 때문에 대부분 사용성이 크게 발전 했으며, 특히 온 스크린 그래픽이나 이미지를 다룰 때 그러하다.

저작자 표시 비영리 변경 금지
신고
댓글
댓글쓰기 폼