ようこそ!!     ドクトルアウンの気になる健康情報 へ     シッカリ食べて  ・・・  バリバリ働き  ・・・  グッスリ休んで ・・・ ドッサリうんちをする。     そんな私に・・・・・なりたい。    
情報TOP



ロボット



HOME ブログ 通 販 通販カタログ 病名(症状) 漢方薬 医薬品





広告



医療ロボット
3D
  • 2010年、国立成育医療センター、アロカ、東京大学のチームは、体内の臓器や胎児の様子を3D映像としてリアルタイムで表示するシステムを開発した。
    超音波を使って裸眼で(特別なメガネが無くても)3D映像が見られる。
    胎児をあたかも手で触れるように空中に浮かんで見える。

汎用OS
  • 2001年、筑波大学の磯部大吾郎講師らはロボットの腕や脚を柔軟に制御する基本ソフト(OS)を開発した。
  • 関節の数が変わっても各関節を協調して動かし、所定の作業をこなす。
    作業中に関節の一部が壊れてもうまく対処できるという。
    手足の長さが違うロボットの制御に共通して使える
  • 技術移転会社の筑波リエゾン研究所(茨城県)を通じて、応用を目指す。
    開発したOSは関節の数が増えても、その動きを制御するのに同じアルゴリズム(計算手順)を使う。このため、ヒトやタコ、ヘビ型と異なるタイプのロボットで汎用的に使える可能性がある。
    各関節の動きを並列処理するアルゴリズムを見ながら、微妙な軌道修正の指示を出す。シミュレーションでは20関節の腕をほぼリアルタイムで動かせた

関節4mmのアーム
  • 直径4mmの関節をたくみに動かすロボットアームを、東京大学の樋口俊郎教授らが開発した、小さな空間にも入り込める超小型の機械点検ロボットや内視鏡などに応用できる

保険適用
<1>ダビンチ
<2>2016年、装着型ロボット「HAL」


遠隔手術
  • 2008年3月、東京慈恵会医科大学が開発した手術ロボットを使い、九州大学とタイのチュラロンコン大学を結んだ遠隔手術の実証実験に成功した。九州大学からタイにあるロボットを操作して、遺体からリンパ節を摘出することに成功した。
  • 軟らかいゴムのような内視鏡を口から入れる手法NOTES<ノーツ>)では世界初の成果。
    通常の内視鏡手術やこれまでの手術ロボットでは、体の3カ所に穴を開けて金属製の硬い内視鏡を入れる。
    ところが、NOTESでは軟らかい内視鏡を口から入れて、消化器官を手術できる。
  • さらに胃に小さな穴を開けて臓器と横隔膜の間の空間である腹腔内に内視鏡を入れて肝臓や胆嚢を手術できる。








国産初の手術支援ロボット
  • 2012年、九州大学先端医療イノベーションセンター(092-642-4680)は、国産初となる内視鏡手術の支援ロボッットをNEDO(新エネルギー・産業技術総合開発機構)などと共同で開発した。
  • 小型で安価
  • ダヴィンチの制御部の高さは約1.7bあり、アームも大型。使用できる手術も前立腺など一部のガンに限られていた。
  • 今回開発したロボットの制御部分の高さは1bと小型。
  • アームを取り替えれば、制御部分ひとつで複数の手術に対応できる
  • 対応できる手術の種類も多い。
  • 従来は頭蓋骨に直径5a程度の穴を開け、顕微鏡を通して脳腫瘍の摘出手術をしていた。穴から見えない場所にある腫瘍の除去は難しく、術後5年後の生存率は10〜14%とされてきた。
  • 開発したロボットを使えば、正面だけでなく側面も見回せるため、腫瘍の取り残しが大幅に減る。




指先大の医療ロボット
  • 立命大学やオムロンなどのチームは、内視鏡よりも患者への負担が軽くなる指先大の医療ロボットを開発した。
    牧川方昭・立命館大学教授らが開発したのは、長さ2cm、幅1cmの小型ロボット5種類。
  • 照明、カメラ、位置センサー、患部を焼き切るマイクロ波照射、薬の運搬というように役割分担している。
  • 体の外から磁場を発生させてロボットを操作する。
    ウサギを使って実験した結果、太ももの小さな切り口から入れたロボットが隙間を通って肝臓まで到達できた




大腸の内視鏡検査を支援するロボット
・・・手ぶれしない
  • 2011年、産業医科大学の久米恵一郎准教授らは、大腸の内視鏡検査を支援するロボットを開発した。ゲーム機感覚で操作できる。
    内視鏡は大腸ガンや胃ガンの検診で、手術に使われる。現在は、医師が内視鏡の操作部分を左手に持ち、本体は右手に持ちながら終始断ちっぱなし姿勢を余儀なくされる。
    大腸の内壁を押さえて内視鏡を挿入するため患者には痛みや不快感が生じることが多く、医師の習熟度によって影響される。
    実験では、医師は離れた場所で、内視鏡から映し出される画像を見ながらアームを動かす。アームは前後、360度の回転が可能。大腸の最奥部まで挿入するのにかかった時間は10分だった。

脳内の深部で血管縫合などができる手術用ロボット
  • 2005年、東京大学と財団法人NHKエンジニアリングサービス(東京世田谷区)は共同で、脳内の深部で血管縫合などができる手術用ロボットを開発した。操縦桿で鉗子など手術道具を遠隔操作する方式で、医師が直接手で扱うよりも長時間にわたり精密に動かせ、安全性が高い。
    ロボットは細長い棒状で、先端部は極細の血管を縫合できる直径3.5mmの鉗子を組み込んだ「手」になっている。患部を精細に捕らえる「目」としてハイビジョンカメラも搭載した。
    鉗子は内部にワイヤを通してあり、これを引っ張って開閉する。
    ワイヤを巻き上げるモーターなどを小型化した。
    実際の手術では患者の頭部を切開した直径4cmほどの穴から鉗子を2本差し込む。医師は撮影した立体画像を見ながら手術台の脇で操縦桿を動かし、血管縫合のほか、ガンの切除などもできる。
    一般のカメラより画質が約8倍高いため、極細の脳血管でもクッキリ見える。
    ロボットは操縦桿の動きの1/10〜1/20に縮小されて動作する。
    頭皮から深さ9cmにある脳深部の血管を何カ所も縫合する手術は、トップレベルの熟練医師でも非常に困難とされる。




ウサギで治療実験
  • 立命館大学の牧川方昭教授と京都大学は、体の中に微細なロボットや機器を入れて、その場で治療したり人工臓器のような役割をさせる実験を始めた。寄生虫をまねた幅1a高さ1a奥行き2aのマイクロロボットを開発。生体マニピュレーターや薬剤タンク、マイクロカメラ、光デジタル通信を搭載している




患者ロボット
  • 岐阜大学と水の技術研究所が共同で「患者ロボット」を開発した。背中を丸めてうつろな目つきをしたり、なめらかな動きで手振りを交えて重症筋無力症など神経疾患の症状を再現する。
    “最近とても疲れやすいんです”と医学生の質問にロボットが眠そうな声で答える。
    医学生はロボットを使うことで珍しい症例の診察を経験できる。
    岐阜大学医学部には、患者ロボット以外にも、臓器をマネキンに投影し人体内部を立体的に観察できる「バーチャル解剖模型」や、質問の不備を指摘してくれる問診シミュレーターなどの教材がある





歯科治療の実技に使うロボット
  • 2010年、昭和大学とテムザックが開発。名前は昭和花子。
    歯学部の学生が歯を削る「タービン」を口に入れると、患者ロボットは「痛い」と訴え、学生は「大丈夫ですか?」と話しかける。
  • ロボットは言葉を発し、痛いと感じれば首を振る。
  • つばを飲み込むときに起きる舌の動きや咳き込む動きも再現する。
  • 患者の口が疲れてきて閉じようとする「開口疲労」も採用。





患者の痛みを表現する
  • 2012年、今にも吐きそうな不快な表情を浮かべながら声を上げる「女性患者」のロボット。
  • モリタ製作所が日本歯科大学と共同開発した歯科治療の研修用ロボット「シムロイド」
  • 人間に近い反応を示し、トラブルなどの発生を警告する。





ロボット義手
  • 2014年、米国防総省の国防高等研究計画局が完成したロボット義手は、脳が筋肉を動かす電気信号<筋電位>を皮膚につけたセンサーで読み取る。
  • 手や指を動かそうとするだけで義手がその通りに動く
  • 握力を自動的に調整し、タマゴを割らずに持ち上げることもできる




ロボット歩行器が認可された
  • 2014年、FDAは脊髄損傷で下半身に軽度のマヒがある人に、歩くのを補助するロボットの販売を認可した。
  • リュックサックにコンピューターとバッテリを入れて、人工の脚を操作する。





スーツ型のロボット
  • 2010年、東京大学の國吉康夫教授らのチームは、多数の触覚センサーを埋め込んだスーツ型(首〜つま先まで覆う)ロボットを開発した。
    伸縮性の強いスポーツ用スーツの下にウレタンとセンサーを埋め込んだ。厚さは5mmで、腰につける計測装置を含めた重量は約3kg。
  • 人や物体に接触したときのウレタンの変形具合から圧力感知する触覚センサーを1856個、姿勢を感知するセンサーを15個つけた。






空気圧で鉗子操作
  • 2010年、東京工業大学の川嶋健嗣准教授と只野耕太朗助教らは、臓器をつまんだ感触が伝わる遠隔手術用のロボットシステムを開発した。手術器具の鉗子などを空気圧で操り、同時に微妙な手応えを検出する仕組み。
    外科医らが自らの手を動かす感覚で、離れた場所の患者を手術できるようになる。
    開発したロボットシステムは、空気の入った風船と水風船をつつくと、違いが実感できるぐらいの精度を達成。
    全体は、外科医の操縦桿に相当する「マスターマニピュレーター部」と、器具が動いて患者を手術する「スレイブ部」で構成した。
    手術器具は鉗子などを想定。
    血管をつまんだり、糸をひっぱたりできる。
    外科医側の画面に鉗子の様子を中継、映像を見ながらマスター部を操作して鉗子を動かす。
    スレイブ部に独自開発の空気圧駆動を採用した。
    鉗子の先で患部をつかむとその力が空気の詰まったシリンダーに伝わる。空気圧の違いを検出して電気信号に変換し、マスター側の操縦桿に人工的な手応えを再現する。
    最小で約0.2ニュートンぐらいの力を手に伝えられる。
    わずかに触れた感覚も分かる。
    引っ張りすぎて手術用の糸を切ってしまったり、臓器に傷つけるなどのリスクを低減できるという。
    手術器具の先に特別なセンサーなどがいらないため、余分な洗浄などが不要で使いやすい。東京医科歯科大学の腫瘍外科チームが試作器でテストしたところ、切除した部分を糸で縫合する作業がうまくできた。
    現在は、マスタースレイブ型の手術ロボットとして米ベンチャーのイントゥイティブ・サージカルが製造している「ダヴィンチ」が欧米や韓国などで普及し始めている。





触れた感触が分かるロボット
  • 2010年、慶応大学は臓器や血管に器具が触れた手応えを医師が感じながら手術できるロボットを試作した。
    開発したのは理工学部の大西公平教授と医学部の森川康英教授らのチーム。内視鏡で体内を観察しながら手術するロボット。






ワトソン
=認知型コンピューター

IBMワトソン(人工知能ロボット)・・・チャンピオンに勝利
  • 2011年、IBMが作ったワトソンという人工知能システムが「Jeopardy!」というクイズ番組で人間のチャンピオンに勝利しました
    ワトソンは人間の言葉を理解できるので、医療の診断システムに応用されようとしている。数百人の医師の知識と経験(ノウハウ)をデジタル情報として蓄積できる。





伸縮する電線
  • 2014年、旭化成が開発した電線は引っ張ると伸びる。
  • ロボットの屈曲を繰り返す部分に利用できる。




プロトコルを公開
  • 産業技術総合研究所と米ハーバード大学などは手術ロボットと、コンピューター、センサーなどをつないで情報をやりとりするのに必要な標準技術を開発。
  • そのためのプロトコル『Open IGTLink』をインターネットで公開している。
    「医療版のリナックスを目指す」と鎮西清行・産総研治療支援技術グループ長は語る。






基盤ソフト
  • 2010年、産業技術総合研究所はロボット開発を支援する基盤ソフトウエア(RTミドルウエア)も最新バージョンを開発した。
    国際標準化団体であるOMGの公式標準仕様に準拠したのが特徴。
    ロボット研究者らに配布を始めた。
    ロボットのセンサーやモーターなど様々な機能のソフトを通信ネットワーク経由で自由に組み合わせて連携させる共通基盤。
    まず、プログラム言語「C++」版を開発した。
    「Java」版、「Python」版も今年中に開発予定。






カードで病気を診断
GMR(Giant Magneto Resistive effect)
  • 2008年、米ユタ大学のグループは血液や尿から数分で病気を診断できる新型装置を試作。
    強大磁気抵抗効果(GMR)の原理で動くセンサーを搭載したのが特徴。
    この装置をカードに埋め込めば、クレジットカードのようにカードリーダーに通すだけで、病気を診断できる。2年以内に動物実験に入る予定。





ロボットと一体化して操る
  • 兵庫県三田市にある関西学院大学の一角。
    細い通路を、車輪を持つ小型ロボットが行き来する。
    何度も壁にぶつかるが、15分ほどで、衝突を回避しながらスムーズに動けるようになった。
    このロボット、実は数b先にあるラットの脳神経細胞によって動いている。
    工藤卓教授らが開発した「ニューロ・ロボット」だ。
    脳から取りだした神経細胞をガラス皿で培養し、底に並んだ電極でその活動を検出。その活動パターンにもとづいて、無線でロットに指令を送る。
    ロボットが壁を検知すると情報が無線でコンピューターへ届き、神経細胞に伝わる。
    もとのラットはすでに死んでいるが、その神経細胞はロボットという新たな体を手に入れた。
    培養された細胞が「壁を避けよう」と考えているわけではない
    右または左から「壁が近づいている」という情報に対し、何らかの反応を返すだけだ。
    初めは右と左の区別が付きにくいが、次第に左右で異なる反応をするようになる。
    細胞が「右壁が近づいた」との反応を示したらロボットを左に、「左壁が近づいた」なら右に向けるように、コンピュータが指令を出す。

    「ニューロ・ロボットの動きは、神経細胞が周囲の環境に対してどのように振る舞うか?を示している」と工藤教授。
    同じ情報がくり返し入ってくると細胞の反応は次第に強化される。
    左右それぞれの壁に対する反応がシャープになり、ロボットは衝突を回避できるようになる。
    ただ、そうした強化が起きた後も、ロボットは時々壁の前で考え込んだように立ち止まることがある。
    はたと気づいて、また動き出すこともある。その動きは、機械と言うより動物のようだ。








テレイグジスタンス
  • 離れた場所にいるロボットと感覚を共有することで、自分の分身のようにロボットを操る技術が「テレイグジスタンス」で、東京大学の名誉教授が提唱した概念。
    目的によってはロボットのサイズや力の強さを変えることができ、人間にはできない仕事もこなせる。

  • 東京大学の名誉教授らが開発したヒト型ロボット「テレサ」は、人の動きをソックリ真似る。
  • 操縦する人は眼鏡型のディスプレーをかけ、特殊な手袋をはめる。
    ディスプレーにはテレサの視界が映り、手にはテレサがつかんだ物の感触が伝わってくる。まるで、自分がテレサになって、テレサがいる場に立っているような感覚で作業ができる。
    将来、テレサを宇宙船に乗せることができれば、自宅にいながら宇宙旅行ができるようになるだろう。




盲導犬ロボット
  • 2012年、高田洋吾・大阪市立大学准教授らは、盲導犬と同様の機能を持つロボットを開発した。
  • 進行方向の信号が何色か?を判別できるほか、半径2b以内にいる他の歩行者や自転車など、視覚障害者が歩くのに障害になりそうな物体の存在を把握する。
  • 開発した盲導犬ロボットは20cm×40cm×30cmで約5kg。4輪で走行する。
  • 前方に2つあるCCDカメラで信号を見分ける。
  • 進行方向に対して240度の方向に広くレーザーを出す装置を搭載し、障害物の有無を見極める。
  • いずれも1秒以下で判断できる。






ニオイを嗅ぎ分けるロボット
  • 2010年、東京大学の竹内昌治准教授と神崎亮平教授らは特定のニオイを嗅ぎ分けられるロボットを開発した。
    成果は科学アカデミー紀要(電子版)に掲載
    昆虫が持つニオイを感じるタンパク質を使い、様々なニオイの中から特定のニオイを嗅ぎ分ける。実験では4種類を区別できた。
    ロボットはヒトの上半身のような形状で高さ45cm。






関連情報 ダヴィンチ

専門病院

PET

CT






解説TOP通販TOP広告TOP病院ランキング血液検査