Videos

Akihabaranews.com - Diginfo - 二面拘束で高精度ドッキングを可能にしたロボットハンドチェンジャー

コスメックはロボットのツール交換を自動で高精度に行うロボットハンドチェンジャーを開発しました。

"ロボット一台の汎用化というのを目的としていまして、加工から組み立て、もしくは検査行程まで一台のロボットで完結することができるようになります。

 

"こちらでは、生まれつき心臓に病気を持つ赤ちゃんの複雑な心臓の構造を3DCGで分かりやすく、かつ短い時間でそのCGを作って表現できるシステムを展示しています。"

"赤ちゃんをMRIやCTといった最初から3Dが撮れる機械に入れる事はできないので、エコーの画像を使います。エ コーの画像は画質が荒いので、そこから自動的に作るのは非常に難しいです。ですので、専門医がエコーの画像を参考にしながら、いくつか手作業を加えていっ て、かつテンプレートの3Dモデルを用意しているので、そのテンプレートから徐々にその赤ちゃんのモデルへちょっとずつ変えていく、そういった操作を繰り 返す事によって、5分程度で作れるというコンセプトになっています。"

"もちろん専門医ですので、エコーを見ただけで頭の中に3Dのイメージは浮かんでいます。ですが、それを他の人に伝え る手段が今まで無かったんです。一緒に治療する医療スタッフ、家族のお父さん、お母さんなどに頭の中のイメージを伝えられないという問題がありまして、そ れをこのシステムを使うことで短時間でできるようになりました。"

 

"千葉大学 平沢研究室では、テンセグリティという構造を持つオブジェを作るための支援システムをARで実装しました。"

"通常の建築物だと、硬いものと硬いものが接続されて形状を作っていくんですが、テンセグリティという構造では、硬いロッドと硬いロッドがそれぞれぶつからずにワイヤーによる張力で全体の形状を支持するという構造になっています。"

"この形状は、我々はとても魅力的なものだと感じていますが、設計するのも難しければ実際につくるのも難しいということで、支援としてARを採用しています。"

"この構造体は、ユニットと呼ばれる3本のロッドからなる組み合わせの部品でできています。今回はこの部品を正確に作るための支援としてARを使っています。"

 

一見、Androidスマートフォンのように見えますが、ひっくり返すと電子ブックのような意表をついた端末が発表されました。

これは、片面にはLCDディスプレイを反対にはE Inkディスプレイを搭載した2画面端末「YotaPhone」で、ロシアのスタートアップYota Devices社が開発しました。

面白い機能と言えば、画面上を二本指で縦になぞると、一方の画面に表示されたコンテンツを片方へ転写させることができること。LCD画面を使い続けると電池の消耗が早いですが、LCDで見ているコンテンツをE Inkへ転写し使用することでバッテリー持続時間を増やすことができそうです。

今月からヨーロッパで発売となりますが、競争の激しいアメリカでは販売予定は未定。

 

埼玉大学辻研究室は、リハビリやトレーニングでどのように筋肉が動いているのか、対象者が自分で見て効果的な訓練を行えるようになるリハビリ支援ロボットR-cloudを開発しました。

"こちらのリハビリ支援ロボットは腕を鍛えるリハビリ支援ロボットなのですが、動かすところに空気圧の人工筋が入って いて柔らかい動作で支援してくれるので安全性が高いこと、あとは特徴として力覚センサーをつけていて、それでトレーニングしている間の筋力の情報等を推定 してそれを可視化してみせる、あるいはトレーニングの効果を数字化して評価するような機能を持たせています。"

R-cloudは微妙な筋肉の動きを計算しデータ化することで理学療法士の方が動きの指導を的確に行えるようになり、対象者が自分で動きを確認できるようなります。

"このロボットには力覚センサーと腕の角度を測るセンサーがついています。その情報から腕の中でどの位の強さで筋肉が 引っぱっているかというのを計算したり、あとは訓練をした時にどの程度各筋肉がカロリーを消費しているか等を計算して 、訓練の効果がどの程度かというのを数値化する技術を実装しています。あとはそれをAR技術で可視化して見せるということを行っています。"

 

神奈川工科大学 白井研究室が開発した「2x3D(ツーバイスリーディー)」は、2Dで視聴したい人と、3Dで視聴したい人が同時に同じスクリーンを見ることができるシステムです。

従来のステレオ立体視は、右目用と左目用、それぞれの光を打ち消す偏光フィルタを右目と左目にメガネとして装着することで成立していますが、このシ ステムでは、偏光フィルタを通して見る必要があるのは右目用映像のみで、裸眼では左目用の映像が視聴できるように特殊な映像生成アルゴリズムを使用してい ます。

"以前はこのように2重像が見えていました。メガネを外した状態で2重像が見えてしまうということをリアルタイムのGPUを使った演算を使ってこのように見えなくするという方法を取っています。"

"アプリケーションはいくつかありまして、分かりやすい例では、このような多言語という使い方があります。例えば、私 がプレゼンテーションを日本語でやっているんだけど、画像自体は英語になっているということができます。大事なのは、同じスクリーンをみんなが見れる、そ してメガネをかけている人の情報とかけていない人の情報が分けられるということです。"

 

これは、柔軟な布の上で、光信号の入力と出力ができる新しいインターフェースとして提案されているものです。

この布は、拡散性光ファイバーで織られていて、コンピュータ制御された様々な発光パターンを布上に描き出すことができます。

さらに、発光素子の反対側に受光素子を取り付ける事で、赤外線を使ったデータ信号の入力を可能としています。

"もともとは、光る布という素材を見つけまして、それは光ファイバーの表面から光を出す事によって発光させるものなんですが、逆に表面から光を入れることによってデータ入力に使えるのではないかという発想に至り、このようなものを作りました。"

"このように薄い布なんですが、フルカラーで発光させることができます。列ごとに違う色を出せます。光らすだけでなく、こちらのペンを使って、色を変えることができます。どの位置から入力して、どういう信号が来てるというのを布側で読み取ることができます。"

 

"こちらのシステムは、東京女子医科大学の先端生命医科学研究所で開発した「Opect(オペクト)」というシステムです。手術室内で画像を見る際に、執刀医が自分で直接インターフェースを操作できるように開発したものです。"

"このように、カメラに対して手を振って今から操作するということを教えます。今、手の場所に白いタマが出ています が、それがマウスのアイコンのような機能を果たします。手を矢印に重ねると次々とページをめくれます。これは患者の病理診断写真です。手術中にどこまで腫 瘍を切り取るかという際にとても重要な情報なんですが、それを見る事ができます。また、手を突き出すことによって、画面の拡大ができます。MRIを見たい 場合は、一度手を突き上げると画像が切り替わるようになっていまして、矢印に手を重ねる事で連続的に画面をスクロールできます。"

 

これは、東京大学 苗村研究室が開発した、バーチャルのキャラクターと現実の世界をつなぐ複合現実感インターフェースです。

ユーザーは、ひよこのCGキャラクターを手のうえにのせたり、ブロックに誘導したりといった、これまでに無いインタラクションを体験することができます。

"最近、空中に映像を結像させるデバイスとして開発されたものがありまして、それを導入してセンサーとプロジェクタを組み合わせることで空中に映像を出しながら、実世界にうまく融合した直感的なディスプレイの体験を生み出す事ができました。"

ユーザーの手の高さやブロックなどの地形データは、Kinectを使って取得しており、キャラクターは最も高い所に移動するようにプログラムされて います。このデータを考慮して、空中像や影を幾何学的かつ光学的に正しく表示することで、高い実在感を与えることに成功しています。

 

"今回、音を中心としたリアルタイム同期システムを展示しています。"

"通常、映像と音のコンテンツの同期再生となると、同期用の信号のようなものが必要なんですが、そういったものを一切用いず、空間に再生した音をキーとして動画を同期させることができます。"

"では、音を再生します。今、各コンピュータが、どういう所の音が流れているかというのを見つけている段階だと思いま す。たぶん、あちらのコンピュータはもう同期しました。そちらも同期していると思います。このように空間中に再生した音をキーにして動画を同期再生するよ うなシステムとしてデモしています。"

"今回のシステムは、1つの録音再生機と3つのコンピュータからなっていて、それぞれ独立に動作しています。ケーブル で繋ぐとか無線で通信しあったりとかいったことは何もしていないです。空間を伝わった音がコンピュータの内蔵マイクに取り込まれて、それと動画中に含まれ ている音とを比較することで、各コンピュータが独立に再生されている場所を見つけ出して映像を合わせてくれるシステムです。"

ページ