顯示具有 機器人 標籤的文章。 顯示所有文章
顯示具有 機器人 標籤的文章。 顯示所有文章

2013年6月8日 星期六

Vijay Kumar 談論:會飛行還懂得團隊合作的機器人 ( Vijay Kumar: Roboticist - 2013 ~ 2015 most higher growth industrial : application based robot )

Vijay Kumar 和他的團隊在賓州大學的實驗室中製作了使用四個螺旋槳飛行、小巧的機器人,這些機器人可以聚集在一起,感覺彼此的存在,並且形成任務編組 -- 進行建造、災區偵查以及其它事情。At the General Robotics, Automation, Sensing and Perception (GRASP) Lab, at the University of Pennsylvania, flying quadrotor robots move together in eerie formation, tightening themselves into perfect battalions, even filling in the gap when one of their own drops out. You might have seen viral videos of the quads zipping around the netting-draped GRASP Lab (they juggle! they fly through a hula hoop!). Vijay Kumar headed this lab from 1998-2004; he's now the Deputy Dean for Education in the School of Engineering and Applied Science at the University of Pennsylvania, in Philadelphia, where he continues his work in robotics, blending computer science and mechanical engineering to create the next generation of robotic wonders.

早安。 今天我想要來談一談 會自動飛行的海灘球。 不是啦,是靈巧的飛行機器人,就像這一個。 我想告訴大家製作這種東西的挑戰性 以及一些很棒的可能性 來運用這種技術。 這些機器人 算是一種無人的飛行器。 不過,如你所見,它們的尺寸都比較大。 它們都有幾千磅重, 一點都不靈巧。 它們甚至並不是自動操作的。 事實上,大部分這些飛行器 是由飛行小組所操作, 可能有好幾個駕駛員 同時在操控著感應器 以及任務協調器。

我們想要開發的機器人是像這個樣子 -- 左邊這裡另外兩張照片-- 這些你都可以買到現成的。 這些是一種具有四個螺旋槳的直昇機, 它們大約是一公尺大小, 也有好幾磅重。 於是我們將它們進行感應器與處理器的改良, 讓這些機器人能夠在室內 不靠GPS飛行。

我手中所拿的這個機器人 就是這種飛行器, 這是由兩位學生所製作的, Alex 以及 Daniel。 它的重量大概是 十分之一磅左右。 它消耗的能量大概是15瓦。 如你所見, 它的直徑大概是8英吋大。 讓我替大家簡單介紹一下 這些機器人的原理。

這裡有四個螺旋槳。 當這四個螺旋槳速度相同時, 機器人就會懸浮在空中。 如果這些螺旋槳速度增加, 機器人就會飛起來,往上加速。 當然,如果機器人傾斜了, 相對於水平線來說, 它就會往這個方向前進。 想讓它傾斜的話,這裡有兩種方法可以辦到。 在這圖片中, 你可以看見4號螺旋槳轉速變快一點, 而2號螺旋槳轉速變慢一點。 當這種情況發生時, 就會讓機器人進行翻轉。 另一種狀況是, 當3號螺旋槳的速度上升, 1號螺旋槳的速度下降時, 機器人就會往前傾斜。

而最後一種可能, 當對角線的兩組螺旋槳 轉得比另外一組快時, 機器人就會在垂直方向偏移。 有一個內置處理器 一直在監控著該進行什麼動作, 並且將這些動作進行組合, 然後以每秒600次的速度 決定出該對這些螺旋槳下達什麼指令。 這就是它操作的基本概念。

這種設計的其中一項優點是, 當你將它的尺寸縮小時, 機器人自然就會變得很靈巧。 這邊的 R 代表著機器人特性的長度。 事實上是直徑的一半。 而當你將 R 縮減時, 許多物理係數就會跟著變動。 其中最重要的 就是慣性或稱為阻止變動的抵抗力。 結果, 控制了角運動的慣性, 大小約是 R 的 5 次方。 所以當 R 變小時, 慣性會急遽的下降。 結果,角加速度, 這裡用希臘字母的 α 表示, 變成了 1 / R 。 它和 R 成反比。 當尺寸越小時,它就越容易旋轉。
Samsung also join into robot cleaner market

用這個影片說明會清楚一點。 在右下角,你可以看見一個機器人 正在進行 360 度翻轉 在不到 1/2 秒的時間內。 多次的翻轉,只要稍微長一點點的時間。 在這種狀況下,內置的處理器 接收了加速器 以及陀螺儀回傳的資訊, 然後進行計算,如先前所說, 用每秒600次的速度發出指令, 讓機器人保持平衡。 在左下角,Daniel 正將機器人拋向空中。 這會讓你知道它的操控能力有多強大。 不論你怎麼丟, 機器人都能恢復平衡然後回到他的手中。

為什麼要將機器人設計成這樣呢? 嗯,這種機器人有很多種運用方式。 你可以將它派遣到這種建築物裡, 擔任先遣部隊去找出侵入者, 或是去找尋生化物質洩漏, 或是瓦斯洩漏等。 你也可以將它們運用在 例如建築上面。 這裡的機器人正運送著橫梁、柱子, 並且組合成立方體形狀的建築物。 我再告訴大家詳細一點。 這些機器人可以用來運送貨櫃。 但這些小機器人的困難在於 它們對於重物的負載能力有限。 所以如果你可能會希望能有多一點機器人 一起來搬運這個重物。 這是我們近期實驗的照片 -- 事實上已經不算是近期了 -- 在地震過後的仙台市(日本)。 這種機器人可以被派遣進入傾倒的建築物裡面 去評估天災造成的損害, 或是派遣到反應爐裡 去勘查輻射等級。

如果這些機器人想有自主能力的話, 它們必須先解決這個問題, 就是必須能夠判斷 怎麼從 A 點到達 B 點。 這有一點難度, 因為這個機器人的動力學是相當複雜的。 事實上,它們活在 12 維空間裡。 所以我們運用了一些技巧。 我們將這個 12 維空間的曲線 轉換成為 一個平面的四維空間。 在這個四維空間之中, 包含了 X, Y, Z 還有偏移的角度。

所以這個機器人所做的是, 去找出我們所說的最小震盪軌跡。 複習一下物理參數, 我們有位置,接著衍生出速度, 以及加速度, 還有加加速度, 然後是震盪。 所以機器人將震盪進行最小化。 這實際上的結果就是 產生出柔順且優美的動作。 它還可以用來避開障礙物。 而這些最小震盪軌跡在這個平面空間中 又會被轉換回 這個複雜的 12 維空間, 才能夠讓機器人去進行 控制以及執行任務。

讓我給大家看一些例子 說明這些最小震盪軌跡是什麼樣子。 在第一段影片中, 你可以看見機器人經過中繼點 由 A 點到達 B 點。 所以機器人確實可以 去執行任何曲線軌跡。 這些是環狀軌跡, 機器人牽引著大約 2 G 的重力。 在上面有個置頂動態影像攝影機, 它會以每秒100次的速度告訴機器人自己在哪裡。 它也會告訴機器人這些障礙物的位置。 這些也可以是移動中的障礙物。 你將會看見 Daniel 將這個鐵環丟向空中, 機器人會計算鐵環的位置, 然後試著去找出穿過鐵環的最佳方式。 身為一個學術人員, 我們總是被訓練得能夠赴湯蹈火才能籌措研究經費, 所以我們也要我們的機器人做到。
Panasonic dish washing robot system

這機器人還能做另一件事, 就是去記住軌跡的片段, 不論是它自行發現的或是事先輸入的。 所以你可以看見機器人會去 組合一項動作 讓它產生動量, 接著改變自己的行進方向在回復過來。 它必須這麼做,因為這個窗戶的缺口大小 只比機器人的寬度稍微大一點。 就像是跳水選手站在跳板上, 接著會跳起來用以產生動量, 然後快速旋轉,翻轉兩周半進行穿越, 最後優雅的回復, 這就是機器人所做的事。 它懂得如何去結合這些零碎的軌跡 以達成這些相當困難的任務。

我想換個話題。 這些小機器人的缺點之一就是尺寸。 如同先前所提, 我們想使用大量的機器人 來解決尺寸上的限制。 但有個困難點是 你要如何去協調這些機器人呢? 這部份我們觀察了自然界。 我想讓大家看一段影片, 關於沙漠盤腹蟻 在 Stephen Pratt 教授的實驗室裡搬運東西。 事實上這是一小塊無花果。 事實上你可以把任何東西沾附一層無花果汁 螞蟻們就會將它搬回巢穴裡。 這些螞蟻並沒有中樞協調者。 它們能感覺到旁邊的鄰居們。 不用進行明確的溝通。 但因為它們能感覺到鄰居, 因為它們能感覺到東西, 它們在團體間有著隱性協調能力。

這種協調能力 就是我們希望機器人能有的。 當我們的一個機器人 被周圍的機器人包圍時 -- 看看機器人 I 和機器人 J -- 我們希望機器人做的事情是 當它們以特定隊形飛行時 去偵測它們之間的距離。 你期望能夠確保 這個距離是在可接受的範圍內。 於是機器人們偵測著這個誤差值 然後以每秒100次的速度 去估算控制指令, 接著以每秒600次的速度對螺旋槳進行動作指令。 這必須是在 沒有中央控制的方式下進行。 當你有許許多多機器人的時候, 想要以中央協調訊息的方式 快速的讓所有機器人完成任務是不可能的。 再加上機器人們必須依靠 它們自身去偵測到鄰近機器人 以獲得訊息來進行動作。 最後, 我們堅持機器人必須無法預知 鄰近機器人會是誰。 也就是匿名的方式。

接下來我將要給大家看 一段影片 關於20個這些小機器人 以特定隊形進行飛行。 它們正在偵測鄰近機器人的位置。 它們正在保持著這個隊形。 這些隊形可以改變。 可以是平面的隊形, 也可以是三維空間的隊形。 如你所見的, 它們從三維空間的隊形變換成平面的隊形。 在穿越障礙物時, 它們可以在飛行中調整隊形。 這些機器人移動時真的靠得很近。 在這個 8 字飛行隊形中, 它們的距離只有幾吋而已。 儘管在這些螺旋槳葉片之間 有著空氣動力的交互影響, 它們仍然能維持穩定的飛行。

一旦你知道要怎麼進行特定飛行隊形, 你就能準確的協力拿起物體。 而這是要告訴大家 藉由將機器人組合成小組後, 我們可以將機器人們的力量 放大兩倍、三倍、四倍,就像是你將看到的這樣。 但這樣做有一個缺點, 當你將尺寸放大以後 -- 如果你有很多這些機器人載運同一個東西, 你一定會有效地增加慣性, 於是你將會付出代價,它們會失去靈巧性。 但你可以相對獲得載運負重能力。

另一項我想給大家看的運用 -- 這也是在我們的實驗室裡進行的。 這是由 Quentin Lindsey 完成的,他是一位研究生。 他的演算法告訴這些機器人們 如何能夠自主性的 將綑狀的材料 建造成立體建築。 他的演算法告訴機器人 該拿起哪一個部份, 以及什麼時候該把它放在哪裡。 你可以在這短片中看到 -- 這是以 10 倍、14 倍速播放 -- 你可以看見這些機器人們建造了三種不同建築。 再次提醒,一切都是自主性進行的, 而 Quentin 所做的是 給這些機器人一張藍圖 記載著他想要的建築設計。

你所看見的這些實驗, 這些展示, 都使用了動作擷取系統。 如果離開了實驗室, 走進真實世界會變成怎麼樣呢? 如果沒有 GPS 會怎樣呢? 這個機器人 裝置了一具攝影機, 一具雷射H搜尋器,雷射掃描器。 它使用這些感應器 來製作一張周圍的地圖。 這地圖然有著一些環境特徵 -- 例如大門、窗戶、 人、家具 -- 接著它會辨識出相對於這些環境特徵 它所處的位置。 這裡並沒有整體座標系統。 座標系統是機器人自身定義出來的, 藉由它所在的位置以及它所看到的東西。 接著它對這些環境特徵進行探索。

我想給大家看一段影片, 關於 Frank Shen 以及 Nathan Michael 教授 所開發出來的演算法, 這個機器人第一次進入一個建築物, 然後在飛行中製作了這個地圖。 於是機器人知道環境特徵是什麼東西。 它製作出地圖。 它知道自己相對於環境特徵的位置, 然後每秒100次的速度 估算出自己的位置, 讓我們可以利用 剛剛說過的控制演算法。 事實上這個機器人正被 Frank 以遠端遙控的方式下指令。 但這個機器人也能自行判斷 它應該往哪裡走。 假設我把它送進一個建築物, 而我完全不知道這個建築物的樣子, 我可以命令機器人進入, 製作出一張地圖, 然後回來告訴我建築物的樣子。 所以機器人並不只是解決 如何從地圖上的A點到B點這個問題, 它甚至知道 每一次的最佳B點是哪個位置。 於是它知道該往哪裡去 以找出還沒有訊息的位置。 這就是它如何把地圖裝滿的方法。

最後, 我想再給大家看一樣應用。 這個技術有許多運用方式。 我是一個教授,我們對教育充滿熱情。 這種機器人可以改變 我們進行12年國教的方式。 我們身在南加州, 很靠近洛杉磯, 所以我想用關於娛樂的例子 來作為最後的結尾。 我想用一段音樂影片來作為結尾。 我要為大家介紹 這個影片的作者,Alex 和 Daniel。

在我播放影片之前, 我想告訴大家他們在接到 Chris 電話後的三天內 就將這段影片製作完了。 影片中演奏的機器人 都是完全自主性的進行。 你可以看見 9 個機器人們演奏著 6 種不同的樂器。 當然,這是為了 TED 2012 特別製作的。 讓我們一起來欣賞。

参考: GRASP Lab

註:2013 ~ 2025 機器人將是人類成長最快的一產業,Samsung、Panasonic 許多相續『應用機器人』產品,值得了解機器人的技術與應用。


Enhanced by Zemanta

2013年4月17日 星期三

個人機器人的興起,Romo 是第一位智惠型手機機器人( Romotive is 1st mini robot with smartphone can play around you )

個人機器人的興起

從我還是一個小女孩 第一次觀看星球大戰開始, 我就被個人機器人 這個概念所吸引。 當我是小女孩時, 我就愛這主意-機器人可以與我們互動 就像我們身邊有益值得信賴的助手, 能逗樂我們,豐富我們的生活 還能助我們拯救一兩個星系。 所以當那時我知道這樣的機器人還不存在時, 我就知道-我想要建造它們。

20年過去了, 我進入麻省理工學院的研究院 學習人工智能, 那一年是1997年, NASA剛剛登陸了第一個在火星的機器人。 但是,諷刺的是,機器人仍然不在我們的家中。 我還記得考慮過所有 爲什麽如此的原因。 其中一個原因特別使我震驚。 機器人技術一度就是關於如何和實物互動, 而不是與人類- 尤其不可能以一種對我們而言自然的社交方式 幫助我們真正接受機器人 進入我們的日常生活。 對我而言,那就是空缺-那就是機器人尚且不能做的。 所以那一年,我開始建造機器人Kismet, 世界上第一個社交型機器人。 三年后- 許多的編程, 和與其他博士生在實驗室的一同工作后- Kismet 開始能夠和他人互動。

所以在過去的這些年中, 我繼續探索著機器人的人際交流方向, 現在在麻省理工學院媒體實驗室 我建立一個團隊,由許多無比天才的學生組成。 我最喜歡的機器人之一是里納多(Leonardo). 我們與Stan Winston工作室合作研發了里納多。 現在我想向你們展示一個對我和里納多特別的時刻。 這是Matt Berlin 和里納多的互動, 給里納多介紹一種新事物。 因為是新事物,里納多並不知道對此該怎麼做。 但有點像我們,他可以通過觀察 Matt的反應來學習。



Romotive is 1st smartphone robot

So just by a show of hands, how many of you all have a robot at home? Not very many of you. Okay. And actually of those hands, if you don't include Roomba how many of you have a robot at home? So a couple. That's okay. That's the problem that we're trying to solve at Romotive -- that I and the other 20 nerds at Romotive are obsessed with solving.

So we really want to build a robot that anyone can use, whether you're eight or 80. And as it turns out, that's a really hard problem, because you have to build a small, portable robot that's not only really affordable, but it has to be something that people actually want to take home and have around their kids. This robot can't be creepy or uncanny. He should be friendly and cute.

So meet Romo. Romo's a robot that uses a device you already know and love -- your iPhone -- as his brain. And by leveraging the power of the iPhone's processor, we can create a robot that is wi-fi enabled and computer vision-capable for 150 bucks, which is about one percent of what these kinds of robots have cost in the past.

When Romo wakes up, he's in creature mode. So he's actually using the video camera on the device to follow my face. If I duck down, he'll follow me. He's wary, so he'll keep his eyes on me. If I come over here, he'll turn to follow me. If I come over here -- (Laughs) He's smart. And if I get too close to him, he gets scared just like any other creature. So in a lot of ways, Romo is like a pet that has a mind of his own. Thanks, little guy. (Sneezing sound) Bless you.

And if I want to explore the world -- uh-oh, Romo's tired -- if I want to explore the world with Romo, I can actually connect him from any other iOS device. So here's the iPad. And Romo will actually stream video to this device. So I can see everything that Romo sees, and I get a robot's-eye-view of the world. Now this is a free app on the App Store, so if any of you guys had this app on your phones, we could literally right now share control of the robot and play games together.

So I'll show you really quickly, Romo actually -- he's streaming video, so you can see me and the entire TED audience. If I get in front of Romo here. And if I want to control him, I can just drive. So I can drive him around, and I can take pictures of you. I've always wanted a picture of a 1,500-person TED audience. So I'll snap a picture. And in the same way that you scroll through content on an iPad, I can actually adjust the angle of the camera on the device. So there are all of you through Romo's eyes. And finally, because Romo is an extension of me, I can express myself through his emotions. So I can go in and I can say let's make Romo excited.

But the most important thing about Romo is that we wanted to create something that was literally completely intuitive. You do not have to teach someone how to drive Romo. In fact, who would like to drive a robot? Okay. Awesome. Here you go. Thank you, Scott.

And even cooler, you actually don't have to be in the same geographic location as the robot to control him. So he actually streams two-way audio and video between any two smart devices. So you can log in through the browser, and it's kind of like Skype on wheels. So we were talking before about telepresence, and this is a really cool example. You can imagine an eight-year-old girl, for example, who has an iPhone, and her mom buys her a robot. That girl can take her iPhone, put it on the robot, send an email to Grandma, who lives on the other side of the country. Grandma can log into that robot and play hide-and-go-seek with her granddaughter for fifteen minutes every single night, when otherwise she might only be able to get to see her granddaughter once or twice a year.

Thanks, Scott.


The New Romo from Romotive on Vimeo.

So those are a couple of the really cool things that Romo can do today. But I just want to finish by talking about something that we're working on in the future. This is actually something that one of our engineers, Dom, built in a weekend. It's built on top of a Google open framework called Blockly. This allows you to drag and drop these blocks of semantic code and create any behavior for this robot you want. You do not have to know how to code to create a behavior for Romo. And you can actually simulate that behavior in the browser, which is what you see Romo doing on the left. And then if you have something you like, you can download it onto your robot and execute it in real life, run the program in real life. And then if you have something you're proud of, you can share it with every other person who owns a robot in the world. So all of these wi-fi–enabled robots actually learn from each other.

The reason we're so focused on building robots that everyone can train is that we think the most compelling use cases in personal robotics are personal. They change from person to person. So we think that if you're going to have a robot in your home, that robot ought to be a manifestation of your own imagination.

So I wish that I could tell you what the future of personal robotics looks like. To be honest, I have no idea. But what we do know is that it isn't 10 years or 10 billion dollars or a large humanoid robot away. The future of personal robotics is happening today, and it's going to depend on small, agile robots like Romo and the creativity of people like yourselves. So we can't wait to get you all robots, and we can't wait to see what you build.


Enhanced by Zemanta

2012年9月1日 星期六

雲端人工智慧結合超級電腦將是下一場革命 ( AI and super-computer become another revolution in cloud )

English: Watson demoed by IBM employees.
English: Watson demoed by IBM employees. (Photo credit: Wikipedia)
誰還需要 Siri? IBM想把超級電腦Watson做成手機

IBM 花了 5 年時間研發的超級電腦「Watson」在 2011 年 3 月於益智競賽節目《Jeopardy》中,以絕對優勢擊敗兩名人類選手。現在 IBM 試圖將這項技術應用到手機上。據《路透社》報導,IBM 研發副總 Bernie Meyerson 設想的願景是能夠用語音啟動 Watson,讓他能像蘋果研發的個人助理 Siri 一樣回答使用者問題,不過解決問題的能力將遠勝 Siri。

你可以問 Siri:我明天出門約會該不該帶傘?但其實這種單純的問題Siri正確回答的機率也還是小於 70%;然而你可以問 Watson:我什麼時候該種玉米?Watson 會在數秒內根據你的所在地處理完相關的歷史趨勢及科研資料。

IBM 一直有計畫地探索 Watson 的附加功能並開發新的市場,估計 Watson 在 2015 年前所帶來收益達 160 億美元。IBM 曾讓 Watson 處理花旗的財金資訊,和 WellPoint 的癌症資料。而下一版的 Watson 2.0 將具備足夠的能源效率,能夠在智慧型手機和平板電腦上運作。

目前 Watson 耗電的速度,據 Meyerson 表示,就和石頭掉到地上的速度差不多。

另一項挑戰是 Watson 需要花一些時間進行學習,才能在一個領域中變得具有可靠性。IBM 去年 9 月開始讓 Watson 應用在 WellPoint 需要的腫瘤領域,但估計要到 2013 年底  Watson 才會變成專家。

然後研究者還需要增加語音與影像辨識系統,Watson 才能對現實世界輸入的資料做出回應,好在 IBM 已經具有轉譯影像的技術,所以這個問題應該會比較好解決。

Meyerson 表示,有一天 Watson 會成為世界所有知識庫中最不可思議的引擎。

語音新創應用

最近參加一個資通訊產品的創新設計及應用比賽擔任評審,參加的產品五花八門,有智慧型行動裝置、雲端應用、高效能桌上型電腦、聯網電視、遊戲機、數位相機、印表機等等,令人目不暇給。

說實在的,各產品都有其獨特的優點,如何擇優給獎對評審真是一大挑戰。因為有的產品以精緻取勝、有的則以設計出線、另有以創新人機介面勝出、也有以性價比來凸顯其價值。尤其『創新』這個用詞,人言人殊,很難有一個共通的準則與判斷的基準,因此在評審過程中引發委員諸多的討論。最後,在投票表決的情況下選出了iPhone 4S。主要的理由之一,在於其透過語音辨識及人工智慧的技術,開創了未來科技應用上的無限可能。

基本上,語音辨識及人工智慧一直是科學上研究的重要主題,但在技術無法有效突破的情況下,應用有其侷限。不過許多廠商仍著眼其未來可能的廣大應用而持續的投入。IBM的華生及Apple的Siri兩個案例,給產業界帶來很大的驚喜與曙光。

IBM過去的電腦『深藍』(Deep Blue),以西洋棋天才棋王Kasparov為挑戰對象,於1997年五月締造了歷史紀錄,讓世界棋王俯首稱臣,榮登世界棋王寶座,亦即史上第一次電腦擊敗了人腦。

在「深藍」之後,IBM再推出「華生」(Watson)電腦,挑戰電視益智節目高手,台灣時間2102年二月17日上午,IBM Watson電腦,順利奪得美國老牌益智節目「Jeopardy!」的頭獎美金一百萬元,成為該節目最新出爐的紀錄保持者。

從技術上觀察,華生電腦的人工智慧比以前的電腦更進一步,能辨識及瞭解複雜變化的人類語言,包括相關語、諷刺和字謎,像真人一樣快。這項科技若能進一步發展,對現實世界的實務運用應會來帶來深遠影響。

而Apple身為新興應用與使用者介面的領導者,在過去發展行動通訊應用之餘,已將多款常見的智慧型行動裝置操作方式轉化為專利,包括在拖曳與翻頁操作上,畫面的小幅度彈回效果,以及一般常見的滑動解鎖功能,以上幾項專利目前均被Apple作為封鎖Android或是其他陣營在銷售至歐美市場時的進入障礙。

去年Apple搭配新機iPhone 4S內嵌的Siri人工智慧助理軟體,其可以協助使用者做許多的語音輸入的應用,例如查詢天氣,設定鬧鐘。使用者可以跟Siri說我要在7點起床,Siri即會設定7點的鬧鐘;或者跟Siri說,在3點要跟某人開會,其就會幫你預定行程。

人機介面的發展不斷演進,從鍵盤,觸控,手勢,一直到語音,人們的理想都是希望能夠朝自然直覺的方式來應用,雖然技術目前仍不夠完美,但已有初步的成效,假以時日,將可更廣泛的應用於各種如醫療、觀光、零售、電子商務---等等產業及市場,未來潛力值得期待!


Google結合了語音辨識、對語言的理解,及知識圖表等技術,讓語音搜尋更能解析使用者的問題,而且有時會以完整的語音回應,該功能已於數周前支援Android,而且很快就會支援iPhone及iPad。 

即使蘋果已決定在最新的iOS 6中移除Google Maps及YouTube等預設服務,不過Google仍持續開發支援iOS的獨立程式,以避免被排除在高市佔的iOS之外。Google本周宣布即將更新iOS上的Google搜尋程式,新增自然語言搜尋功能,成為Siri的競爭對手。 

支援iOS的Google搜尋原本就提供語音搜尋功能,不過新版將進一步允許使用者以自然語言講出自己的需求,而且程式將會同時透過語音及搜尋結果回應使用者的詢問。 

Google Search資深副總裁Amit Singhal認為,詢問一件事最自然的方式之一就是大聲的講出來,因此Google結合了語音辨識、對語言的理解,及知識圖表等技術,讓語音搜尋更能解析使用者的問題,而且有時會以完整的語音回應,該功能已於數周前支援Android,而且很快就會支援iPhone及iPad。 

使用者在啟用Google Search服務後,只要按下麥克風圖示就能開始進行語音查詢,而且就像朋友間的應對一樣,例如詢問「這個周末有哪些電影在上映?」,除了Google Search會照常列出最近的戲院、電影名稱、時刻表等搜尋結果外,該程式還會以語音回答使用者的詢問。 

Google的Android與蘋果的iOS為全球最大的兩大行動平台,包括平台與行動服務都已成為雙方的戰場,且競爭態勢日趨明顯。

虛擬人腦

建立巨型數位大腦類比,將可改變神經科學與醫學,並找出製造更強大電腦的新方法。

重點提要
  • 電腦類比將以空前逼真的數位化方式,揭開人腦運作各層次的內幕。
  • 2020年以前,數位化大腦或許就可以表現單一腦細胞的運作歷程,甚至是整個大腦的運作方式。
  • 虛擬大腦可以做為真實大腦的替身,幫助我們解開自閉癥的秘密,或進行虛擬藥物試驗。

該是改變大腦研究方法的時候了。

化約生物學(檢視個別腦區、神經迴路與分子)帶我們走了很長的路,但它不足以解釋人腦這個頭顱中舉世無雙的資訊處理器如何運作。我們不但要化約,還要組建;不但要切分,還要建造。要達到這個目標,我們需要一個結合分析與綜合的新典範。化約論之父、法國哲學家笛卡兒就曾寫到分部研究再重組出整體的重要性。

科學界目前有一專案標,就是結合各種技術,設計出一個能夠完全類比人腦的絕妙新科學儀器。儘管這個東西目前還不存在,但我們已在著手建造。你可以把這個儀器想像成史上功能最強大的飛行類比器,只不過它不是類比飛行,而是在大腦中遨遊。這個「虛擬大腦」會在超級電腦上運作,並將神經科學至今所產生的所有資料融合在一起。

數位大腦將成為科學社群的共同資源:研究人員可以預約數位大腦來進行實驗,就像使用大型望遠鏡一樣。他們可以用數位大腦來測試人腦在正常或生病時的運作理論。他們將充實數位大腦的功能,協助發展出自閉癥或精神分裂癥的新診斷測試,還有憂鬱癥和阿茲海默癥的新療法。這個涉及百兆個神經迴路連結的計畫,將啟發仿人腦電腦和智慧型機器人的設計靈感。簡言之,數位大腦將改變神經科學、醫學以及資訊科學。

盒中大腦

在2010年代末,超級電腦的功能將可以支援龐大運算數據的需求,讓科學家得以進行首次的類比人腦實驗。我們無須解開人腦的所有奧秘,就可以打造虛擬大腦。它甚至還可能會提供架構,來幫助我們融會貫通已知的資訊,同時也讓我們得以預測未知。這些預測可以說明未來實驗的重點,讓我們不必做白工。我們所產生的知識將和既有知識結合,架構中的「空隙」也會被越來越多的實際細節填滿。最後,我們就能擁有一個運作和大腦完全相符模型,從分子層級到整個大腦都能夠精準重現。

這是人腦計畫(Human Brain Project, HBP)的目標,約有130所來自世界各地的大專院校參與該項計畫。歐盟宣佈將在接下來的10年內提供高達10億歐元的巨額經費給兩項科學計畫,目前有六項計畫參與競爭,人腦計畫就是其中之一,2013年2月便知錢落誰家。

我們需要這個類比器的理由至少有兩個。光是在歐洲,就有1億8000萬人受腦部疾病所苦(約人口的1/3),隨著人口的老化,這個數字也跟著增加。在此同時,藥廠卻並未投資研究神經系統病變的新療法。以全面性的觀點看待腦部,將讓我們得以透過生物特質來重新分類腦部疾病,而非只是將它們視為各種癥狀的組合。這種開闊的觀點,將幫助我們發展出專門針對潛在異常狀況的療法。

第二個理由是電腦運算遭遇瓶頸,並需要進一步的發展。儘管電腦處理資訊的功能越來越強大,但是仍然無法像動物的大腦般輕鬆完成許多任務。例如電腦科學家在視覺辨認上已有了重大進展,但是這些機器仍然無法像大腦般能以一個畫面的內容或是隨機的片段資訊來預測未來。

此外,越強大的電腦越耗電,電力供應總有一天會不足。目前超級電腦的效能是以千兆浮點運算(petaflop)為單位,也就是每秒能進行千兆次的邏輯運算。到了下一個世代(約2020年),運算速度將比現在快1000倍,變成百萬兆浮點運算(exaflop)。一部百萬兆級的機器要消耗約20百萬瓦的電力,約等於一個小鎮的冬季用電量。為了製造出功能日益強大的電腦,讓它以高效能的方式做到一些人腦可以輕易完成的事情,我們需要全新的策略。

我們也可以從人腦獲得一些啟發,畢竟它執行許多心智功能時,只需耗能20瓦左右,約等於一顆微弱燈泡所需的電力,是百萬兆級機器的百萬分之一。為了達到這個目標,我們必須瞭解大腦從基因到行為的多層組織。所有知識都在那裡,但我們必須將它們融會貫通,此時我們的類比器就變成這項任務的平臺。

有評論者認為,類比人腦是無法達成的目標,主要的反對理由之一是不可能複製大腦中百兆個神經突觸的連結,因為我們根本無法對其進行量測。我們確實無法量測大腦突觸的連結網路,因此我們並不打算全盤複製它,我們計畫以不同的方法來重現腦細胞間的大量連結。

我們的關鍵策略,是根據大腦的發育方式來描繪基本藍圖,也就是遵循在演化過程中引導大腦發展並在每一個胎兒身上不斷重現的原則。理論上,我們只要掌握那些原則,就可以組建大腦了。人們的懷疑是對的,大腦的複雜程度確實讓人卻步,所以我們才需要超級電腦來掌握這些複雜度。但是要瞭解這些規則還不算太難,只要找到這些規則,我們就能把這份藍圖應用在生物學上,並在電腦上創造一個「矽晶片」大腦。

分析

  • 雲端運算及人工智慧結合超級電腦將是下一場新的產業革命;
  • 主要品牌廠商是 IBM、Google,台灣要準備什麼資源可以成為新的產業之供應鏈?
  • 台灣需要有鼓勵外商來投資之策略,台灣外資投資率之排名是全球倒數第二,馬總統稅制及鼓勵外商來投資之條件太差。
  • 電腦上創造一個「矽晶片」大腦在經濟效益上是否可行將是另一問題,因為耗電量太高,service cost 將過高無法商業化。
  • 雲端智能運算及人工智慧運算優勢是:
    • 10 ~ 100倍速於 smart phone 、 tablet  運算速度;
    • 多處理器平行及分配運算軟體;
    • 10   ~ 100倍速收集網路及群體資訊;
    • 收集網路及群體資訊特徵資料庫;
    • 智能連結集體資料庫;
    • 能處理龐大資料;
Enhanced by Zemanta