voice recognition(2)
-
AI 스피커의 VUX 설계 시 고려할 것들
Google Home 들어가며 인공지능의 빽에 힘입어 음성비서를 탑재한 다양한 디바이스들이 쏟아지는 상황에서 회사에서도 눈에 띄게 음성 인터랙션을 설계하는 프로젝트가 많아지고 있다. 시간은 조금 흘렀지만(인간은 망각의 동물..) 인공지능 스피커의 VUX를 설계하면서 기획자로서 고민했던 부분을 간단하게나마 공유하려고 한다. 음성비서는 어떤 상황에서 유용할까/자연스러울까? 최근 어느 교수님의 인상 깊었던 말이 있다. 우리가 새로운 형태의 디바이스를 만들 때는 그것이 기존에 존재하는 강력한 도구들(스마트폰 등)보다 편한 점이 무엇인지, 굳이 필요한 이유가 무엇일지 생각해보고 거기서 뚜렷하게 답이 나오지 않는다면 설계를 다시 해야 한다는 것이다. 당연한 말 같지만, 우리는 종종 새로운 디바이스가 담고 있는 형태..
-
인풋 방식으로서의 버튼 vs 음성
개인적으로 음성인식 서비스를 처음 접했던 채널은 모바일이었다. 그래서인지 새로운 영역이라기보다는 모바일 화면설계의 범위가 확장된 정도의 수준으로 이해했던 것 같다. 이후 음성인식 서비스만을 위한 하드웨어가 처음 등장하고 이를 사용해보면서 본격적으로 "음성"이 제공하는 사용자 경험에 대해 고민해보게 되었다. 특히 음성인식 서비스를 기획하면서 기존의 화면기획 업무와 비교하며 이해하게 되었고, 더 나아가 음성 UX에 대한 여러 관점과 생각들을 정리해볼 수 있었다. 이 글은 그 첫 순서로, 인풋 방식으로서의 '버튼'과 '음성'을 비교한 것이다. (사실 정확한 비교대상은 '터치'와 '음성'이지만 효율적인 전달을 위해 '터치'를 '버튼'으로 적었다.) 1. 인풋과 아웃풋이 다른 버튼 vs 인풋과 아웃풋이 동일한 음..