新しいものづくりがわかるメディア

RSS


目の前にある空間・物体の状況を音で伝える視覚障害者向けゴーグル「Eyesynth」

ゴーグルに映る空間の状況や物体の形状・位置などを音に変換して装着者に伝える視覚障害者用ゴーグルデバイス「Eyesynth」のプロジェクトがKickstarterで進行中だ。ゴーグルに搭載したカメラが撮影した3D映像を、言葉ではなく抽象的な音で表現するという。

photo

ゴーグルで撮影した3D映像を接続先のマイクロコンピュータに送り、そこでリアルタイムに音へ変換して装着者にフィードバック。空間や物体の形状だけでなく、物体の位置や奥行きまで伝えるという。視覚範囲は0.7m、2m、6mから選択可能だ。

音は、頭に装着したソフトなゴム製クッションから骨伝導で伝わる。そのため、会話やランニングなどの活動に支障をきたさない。耳の疲労やストレスも避けられる。

使用法にはトラッキングモードとパノラマモードの2通りがある。トラッキングモードでは、頭を左右に動かすことで特定の物体を認識できる。パノラマモード時は、周囲の全体像をステレオサウンドで捉えることが可能だ。

photo トラッキングモード
photo パノラマモード

EyesynthはKickstarterで12月31日までクラウドファンディング中。12月25日時点では目標額の10万ユーロ(約1320万円)に対して、1万ユーロ(約132万円)以上を集めている。

希望小売価格は1190ユーロ(約15万7000円)。特別早期割引適用分は840ユーロ(約11万円)だ。出荷は2016年6月を予定している。日本への送料は、120ユーロ(約1万6000円)になる。

関連情報

おすすめ記事

 

コメント

ニュース

編集部のおすすめ

連載・シリーズ

注目のキーワード

もっと見る