전체 3건
뉴스 리스트
게시판 리스트 컨텐츠
2019-07 11

[학술]김도환 교수, 'VR·AR' 기기의 극적 성능향상 길 열어

한양대 김도환 화학공학과 교수팀은 내구성이 우수한 ‘유기반도체 겔(Gel)’을 세계 최초로 개발했다고, 한양대가 7월 11일 밝혔다. 또한, 김 교수팀은 이를 활용해 고해상도 유기전자회로와 올레드(OLED) 마이크로디스플레이 제작에도 성공했다. 해당 기술이 상용화될 경우 낮은 해상도로 인해 사용자에게 멀미와 어지러움을 유발했던 가상‧증강현실(VR‧AR) 기기의 성능이 크게 개선될 것으로 기대된다. ▲가상/증강현실 구현을 위한 고내성 유기반도체 겔 기반 초고해상도 OLED 마이크로디스플레이 모식도 유기반도체는 저온에서 용액공정이 가능한 차세대 반도체로 플렉서블‧스트레쳐블 전자기기 등에서 각광을 받고 있다. 하지만 실리콘 반도체와 달리 물리적 충격에 약하고 유기용매에서 불안정해 연속적인 용액공정 및 기존 포토리소그라피 패턴 공정을 이용하기 어려운 한계점을 가지고 있다. 이런 한계를 극복하고자 김 교수팀은 유기반도체와 실리카네트워크 간의 ‘3차원 초밀도 엉킴구조’를 유도하는 소재변환기술을 통해 내구성이 뛰어난 유기반도체 겔을 세계 최초로 개발했다. 이를 통해 기존 유기반도체의 한계를 극복하고 연속적인 용액공정과 포토리소그라피 공정을 동시에 적용시켜 초고해상도 적층형 유기전자소자를 제작했다. 김 교수팀이 개발한 소재변환기술은 향후 다양한 유기반도체에 적용할 수 있다는 점에서 학술적으로도 큰 의미를 가진다. 김 교수는 “이번에 개발된 유기반도체 겔 변환기술은 연속적 용액공정 및 상용화된 반도체 공정을 유기반도체에 직접 적용해 차세대 OLED 마이크로디스플레이 및 뉴로모픽 유기전자회로 등 초고해상 유기전자소자를 구현할 수 있다는 점에서 임팩트가 매우 클 것으로 기대된다”고 말했다. 이번 연구는 삼성전자 미래기술육성센터의 삼성미래기술육성사업 지원으로 숭실대 이호진, 서강대 강문성 교수팀과 함께 수행됐다. 연구결과는 재료과학 분야 세계적인 학술지 「Advanced Materials」 7월호에 표지논문으로 게재됐으며, 관련 기술로 5건의 국내외 특허를 등록 및 출원한 상태다.

2019-01 01

[학술]가상현실 아바타가 내 표정까지 따라 한다고?

지난해 3월 개봉한 영화 <레디 플레이어 원(2018)>의 주인공들은 가상현실(Virtual Reality이하 VR) 기기를 쓰고 가상의 세계에서 자신이 원하는 아바타로 세상을 살아간다. 한 편의 영화로 미래 VR 기술이 우리의 삶을 얼마나 바꿀지 체험할 수 있다. 최근 한양대학교 임창환 교수팀(전기생체공학부)이 이러한 미래를 한 발짝 더 앞당겼다. VR 아바타 표정 인식 재현 기술을 발표해 VR 기술 분야에서 주목을 받고 있다. 이제 가상세계에서 아바타로 소통하는 미래가 머지않았다. 단 한 번의 등록으로 11가지의 표정 인식이 가능 최근 페이스북이 VR기기 전문업체 ‘오큘러스 리프트(Oculus Rift)’와 아이 트래킹(Eye Tracking) 분야 스타트업을 인수했다. '페이스북 스페이스(Facebook Spaces)'라는 새로운 소셜 VR 플랫폼을 개발하기 위해서다. 가상세계에서 다른 사람들과 아바타로 만나 서로 소통하며 여행도 다닐 수 있다. 하지만 눈동자의 움직임이나 표정을 잘 반영하지 못해 관련 연구가 꾸준히 진행되고 있다. 기존 표정 인식 기술은 VR 기기 아래에 카메라를 부착해 입 모양을 읽고, 기기에 가해지는 압력을 측정해 얼굴 상단 부 움직임으로 표정을 인식했다. 하지만 카메라를 이용한 방식은 낮은 휴대성과 높은 가격, 조명에 따른 오류가 문제점으로 지적됐다. 또 압력센서는 장시간 사용 시 정확도가 떨어져 상용화에 어려움을 겪었다. 이에 임 교수팀이 개발한 ‘VR 아바타 표정 인식 재현 기술’이 이목을 끌고 있다. ▲ 임창환 교수팀(전기생체공학부)이 개발한 VR 아바타 표정 인식 재현 기술을 시현하고 있다.(클릭 시 영상으로 이동) 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다.(임창환 교수 제공) 임 교수는 기존과 다른 접근법을 시도했다고 밝혔다. “우리 연구실에선 근전도(근육을 통해 전달되는 미세한 전기생체신호, electromyogram; EMG)를 통해 표정을 파악하고자 했죠. 얼굴 전면을 덮는 것이 아닌 눈 주변에 8개의 전극을 부착해 11가지 표정을 인식할 수 있습니다.” 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다. “가장 중요한 건 한 번의 표정 등록으로 표정을 구분하고 아바타로 재현할 수 있다는 거죠.” 휴대폰 지문 인식 기능을 위해 지문을 여러 차례 등록하는 것처럼, 기존 표정 인식 기술은 표정 하나를 인식하기 위해 9~14번의 등록을 거쳐야 했다. 하지만 임 교수팀의 기술은 단 한 번의 표정 등록으로 11가지 표정을 인식하고 재현한다. 정확도 또한 92%에 육박한다. 임 교수는 “앞으로 딥러닝을 이용해 연속적으로 임의의 표정을 재현하는 단계까지 발전시킬 계획”이라고 말했다. “우리나라 맞춤형 기술이 탄생하지 않을까요.” 표정 인식 기술 연구 중에서도 VR에 초점을 맞춘 연구는 흔치 않다. 특히 임 교수는 이번 기술이 가지는 의미가 남다르다고 말한다. “서양에선 카메라로 얼굴 하관의 변화를 인식하는 원리를 많이 사용해요. 그런데 한국을 비롯한 동양 사람들은 상대방의 감정을 읽을 때 눈을 더 많이 바라본다고 해요. 이번 기술은 눈 주변에서 일어나는 근전도를 통해 표정을 읽어낸다는 점에서 한국인에게 더 적합한 기술이 아닐까 생각합니다.” ▲ 임창환 교수(전기생체공학부)는 가상현실(VR)에서 사용자의 표정을 아바타에 재현하는 기술을 연구하고 있다. 얼굴의 근육 신호인 근전도를 측정해 표정을 관측하고 감정을 읽어내는 것이 기술의 핵심이다. 가상현실 환경은 소셜네트워크서비스(SNS), 게임, 교육 등 응용 분야가 무궁무진하다. 임 교수팀의 기술 또한 VR 플랫폼에서 응용 가능성이 높아 삼성전자 미래기술육성센터의 지원을 받고 있다. VR에 생체공학 기술을 접목해 새로운 시너지를 보여주고 있는 임 교수팀의 행보가 기대된다. 글/ 황유진 기자 lizbeth123@hanyang.ac.kr 사진/ 박근형 기자 awesome2319@hanyang.ac.kr

2017-02 03

[학술][알림] 산학R&SD전략센터, ‘제6회 한양 미래 포럼’ 개최

한양대학교 산학협력단 산학R&SD전략센터는 오는 10일(금) 오후 3시 교내 정몽구 미래자동차연구센터 컨퍼런스룸 105호에서 ‘제6회 한양 미래 포럼’을 개최한다. 이번 포럼은 미래창조과학부가 선정한 9대 국가 전략 프로젝트 중 하나인 ‘AR/VR(가상증강현실)’을 주제로 열린다. 유범재 실감교류인체감응솔루션연구단 단장이 ‘AR/VR 기술의 현황과 전망’을 주제로, 이상수 AIXLAB 대표가 ‘AR/VR 콘텐츠산업 현망과 전망’을 주제로 발표를 진행한다. ▲'제6회 한양미래포럼' 포스터