目の前にある空間・物体の状況を音で伝える視覚障害者向けゴーグル「Eyesynth」
2015/12/28 07:00
ゴーグルに映る空間の状況や物体の形状・位置などを音に変換して装着者に伝える視覚障害者用ゴーグルデバイス「Eyesynth」のプロジェクトがKickstarterで進行中だ。ゴーグルに搭載したカメラが撮影した3D映像を、言葉ではなく抽象的な音で表現するという。
ゴーグルで撮影した3D映像を接続先のマイクロコンピュータに送り、そこでリアルタイムに音へ変換して装着者にフィードバック。空間や物体の形状だけでなく、物体の位置や奥行きまで伝えるという。視覚範囲は0.7m、2m、6mから選択可能だ。
音は、頭に装着したソフトなゴム製クッションから骨伝導で伝わる。そのため、会話やランニングなどの活動に支障をきたさない。耳の疲労やストレスも避けられる。
使用法にはトラッキングモードとパノラマモードの2通りがある。トラッキングモードでは、頭を左右に動かすことで特定の物体を認識できる。パノラマモード時は、周囲の全体像をステレオサウンドで捉えることが可能だ。
EyesynthはKickstarterで12月31日までクラウドファンディング中。12月25日時点では目標額の10万ユーロ(約1320万円)に対して、1万ユーロ(約132万円)以上を集めている。
希望小売価格は1190ユーロ(約15万7000円)。特別早期割引適用分は840ユーロ(約11万円)だ。出荷は2016年6月を予定している。日本への送料は、120ユーロ(約1万6000円)になる。