VR Odor, Multisensory AI Model, Humanoid
* 한 주간 읽은 기사를 기록 상, 또 재미(?)를 나누기 위해 간단히 공유와 감상평 사족을 남깁니다.
* 잘못된 내용 가르침 또는 해당 주제로 수다 원하시면 댓글/kijunkim77 엣 gmail.com 환영합니다.
[Summary]
가상현실(VR)에 향기를 도입할 수 있는 소형 무선 디바이스 개발 관련. 이 디바이스는 코와 입 사이에 부착하는 웨어러블 장치와 헤드셋 아래에 착용하는 장치로 구성됨. 파라핀 왁스를 뜨겁게 해서 다양한 향기를 발생시키는 방식.
시각/청각/촉각에 이어 후각까지 가능! 이제 미각만 남음. 진정한 메타버스의 세상(레디 플레이어 원) 속으로 들어갈 날이 얼마 남지 않았습니다!!!
그런데, 저런 방식이면 갑자기 향을 없애버려야 하는 VR 속 상황 대처는 어떻게? 예를 들어, 병 속의 액체가 무엇인지 냄새를 맡기 위해 열었다가 악취가 나서 갑자기 확 닫아버리는 상황이라면. VR 속에서는 향이 없어져야 할 텐데, 파라핀 왁스 향은 현실 세상에서 바로 없어지지는 않을 것이고.
그리고, 미각까지 구현되는 세상을 고민하면. 어쩌면 이런 물리적인 방식보다 뇌에 직접 신호로 감각을 느끼는 것처럼 만드는 것이 궁극적으로는 필요하지 않을까?
[Summary]
Meta가 6가지 유형 데이터(audio, visual (including images and videos), text, depth information, temperature, and movement readings from an inertial measuring unit (IMU))를 하나의 다차원 인덱스로 결합하는 ImageBind라는 오픈소스 AI 모델을 발표. 이 모델은 생성 AI 시스템이 몰입감 넘치는 다감각 경험을 생성하는 것을 목표로 함.
시각 외에 모든 감각을 물리적으로 구현하는 위의 시도(후각) 같은 것들이 기본적으로 갖추어져야 하겠으나, 그것들이 갖춰진다고 해도 모든 것을 사전 정의된 방식으로 레디 플레이어 원 같은 오픈월드 메타버스 세상을 만드는 것은 아마도 불가능할 듯.
그렇기 때문에 이런 다차원의 생성 모델이 필수적으로 필요할 텐데, 역시나 메타버스에 진심인 Meta는 다른 회사들보다 이 부분을 더 많이 집중하고 있는 느낌 (이름도 바꿨는데 이 정도는 해야지)
[Summary]
컴퓨터 비전과 머신러닝으로 자동차 검사를 자동화하는 스타트업, UVeye의 시리즈D 펀딩. 자동 세차기처럼 쓱 한번 훑는 3개의 스캐너로 1)underbody scanner - frame damage/missing parts or leaks, 2)tire system - tire brand and spec/air pressure/tread depth/sidewall damage, 3)third system - external body components/bumber/door lock/grill/window.. 을 검사 가능하다고 함
워낙 다양한 모델과 기계적으로, 구조적으로 복잡하여 어디까지 컴퓨터비전이 굽이굽이 치고 들어갈 수 있는 것인지는 모르겠지만, 대표적인 정보비대칭 영역인 자동차 검사 및 정비를 기술로 자동화하고자 하는 시도.
앗, 그런데 파워트레인과 성능 검사류는 어떻게 하지? 언젠가는 이것들도 해주면 좋겠음. 내연기관 시대에서는 어려울 수도 있겠으나, EV 시대에는 충분히 가능할 것으로 보이니까.
그런데 이런 시도는 기존의 자동차 정비 산업을 혁신하는 것도 가능하겠으나, 언젠가 도래할 로보택시가 24/7 운행되는 시대에 스스로 가서 정비를 하고 오는 출발이 될 수 있을 것이라 의미가 클 것으로 보임
[Summary]
휴머노이드 시장에 진심을 보이고 있는 다양한 기업들. 심지어 OpenAI도 1X라는 노르웨이 휴머노이드 스타트업에 투자하며 시작함.
작년 테슬라 AI Day에서 공개된 옵티머스를 보면서도 2족 보행 로봇이 집이나 회사에서 함께 어울리는 모습은 그렇게 빨리 오지는 않겠구나 생각했었고, 보스턴 다이내믹스의 멋진 영상들을 항상 보면서도 마찬가지였었음. 그런 맥락으로 샤오미의 로봇기업 설립 기사를 보고, 약간의 농담으로 테슬라와 샤오미 로봇 중 무엇이 먼저 나올까요? 를 던지려고 했었으나...
하지만, OpenAI가 휴머노이드를 함께 만든다는 기사에는 즉각 기대 반, 두려움 반 등등이 떠올랐음. 기사에도 나오지만 OpenAI에는 이미 로봇 관련 부서가 있었기도 하거니와, 최근에 나도 업무와 일상생활 속에서 ChatGPT를 자주 활용하게 되면서 너무나 빠르게 삶의 구석구석으로 치고 들어오는 그들의 기술적 진보와 성능을 체감하고 있기 때문에 더욱 그런 감정이 들었던 것 같음.
AutoGPT + 휴머노이드..무섭다.
[Summary]
인간이 사물을 잡을 때 접근하는 방식과 유사하게 동작하는 그리퍼 연구 by 김상배 교수님(치타 아버지)
위와 같은 휴머노이드 개발이 금방이라도 될 것 같은 와중에, 가장 단순하고 기본일 것 같은 사물을 잡는 것이 로봇에게는 그렇게도 어려운 일이라는 것을 알려주시는 기사.
[Summary]
아마존이 내부적으로 개발한 대규모 언어 모델(LLM)인 '알렉사 티처 모델'을 활용해 알렉사를 더욱 능동적이고 대화적인 존재로 만드는 중이라고 함. 유출된 문서에 따르면 아마존은 알렉사를 단순히 데이터베이스에서 정보를 가져오는 존재가 아니라 생각하고 응답을 생성할 수 있는 존재로 구상 중이라고 함.
올 것이 왔구나! 어느새 우리 집에서는 날씨와 음악 틀기(하지만 음질이 꽝이라 이것도 별로), 썰렁한 농담 기계로 전락해 버린 AI 스피커가 본때를 보여줄 날이 온 것 같음.
이런 하드웨어 사업 강아지나 줘버려! 라고 내팽개쳐진 곳도 많았을 것이나, 이미 많이 깔아 둔 기업들에게는 충분히 의미 있는 만족도의 대화를 통해 고객 접점에서 물 흐르는 듯한 UX를 제공가능한 기회가 그만큼 넓다는 것이니 얼마나 전화위복인가 싶음.
게다가, 정보를 편리하게 주고받고 서비스를 원활하게 사용하는 것을 넘어 점차 감정 이입도 되는 대화 친구가 될 수도 있을 것 같음(https://heypi.com/talk <- 한번 사용해 보세요. 이런 스타일?). 효돌(https://hyodol.com/)에 이거 넣읍시다!! 대박예감