https://youtu.be/SICQTEagQGw?si=12IEx6P9KLULTroO
지난 12월 12일 openai가 실시간 비디오 기능을 오픈했습니다.
지난 5월 GPT4o를 공개할 때 시각장애인이 핸드폰만 들고
주변에 대한 설명을 듣고 택시까지 잡는 장면을 시연했었습니다.
바로 그 기능이 이번에 공개된 것입니다.
그래서 저도 핸드폰 카메라로 주변을 인식하는 걸 테스트 해봤습니다.
택시를 잡는 걸 해볼 수는 없어서 신호등이 녹색으로 바뀌면 알려달라고
지시했는데, 제대로 해내지 못했습니다.
특정 시점에서 인식하는 건 잘 하는데
연속적인 비디오 정보를 서버로 보내서 실시간으로 분석하지는 않는 것 같습니다.
아마도 서버 부하 때문일 것이라고 생각됩니다.
당연히 현재의 기술로 가능할 것 같고요.
그리고 멀리 있는 글자는 인식이 잘 안됐는데
이것도 역시 해상도의 문제일 것 같습니다.
처리속도를 감안해서 해상도를 낮춰서 보내는 것이 아닐까 생각해봤습니다.
암튼 이제는 AI와 소통하는 방법이 매우 다양해졌습니다.
결국 안경형태의 XR기기가 유행하게 되지 않을까 생각해봅니다.