顯示具有 人工智慧 標籤的文章。 顯示所有文章
顯示具有 人工智慧 標籤的文章。 顯示所有文章

2013年4月17日 星期三

個人機器人的興起,Romo 是第一位智惠型手機機器人( Romotive is 1st mini robot with smartphone can play around you )

個人機器人的興起

從我還是一個小女孩 第一次觀看星球大戰開始, 我就被個人機器人 這個概念所吸引。 當我是小女孩時, 我就愛這主意-機器人可以與我們互動 就像我們身邊有益值得信賴的助手, 能逗樂我們,豐富我們的生活 還能助我們拯救一兩個星系。 所以當那時我知道這樣的機器人還不存在時, 我就知道-我想要建造它們。

20年過去了, 我進入麻省理工學院的研究院 學習人工智能, 那一年是1997年, NASA剛剛登陸了第一個在火星的機器人。 但是,諷刺的是,機器人仍然不在我們的家中。 我還記得考慮過所有 爲什麽如此的原因。 其中一個原因特別使我震驚。 機器人技術一度就是關於如何和實物互動, 而不是與人類- 尤其不可能以一種對我們而言自然的社交方式 幫助我們真正接受機器人 進入我們的日常生活。 對我而言,那就是空缺-那就是機器人尚且不能做的。 所以那一年,我開始建造機器人Kismet, 世界上第一個社交型機器人。 三年后- 許多的編程, 和與其他博士生在實驗室的一同工作后- Kismet 開始能夠和他人互動。

所以在過去的這些年中, 我繼續探索著機器人的人際交流方向, 現在在麻省理工學院媒體實驗室 我建立一個團隊,由許多無比天才的學生組成。 我最喜歡的機器人之一是里納多(Leonardo). 我們與Stan Winston工作室合作研發了里納多。 現在我想向你們展示一個對我和里納多特別的時刻。 這是Matt Berlin 和里納多的互動, 給里納多介紹一種新事物。 因為是新事物,里納多並不知道對此該怎麼做。 但有點像我們,他可以通過觀察 Matt的反應來學習。



Romotive is 1st smartphone robot

So just by a show of hands, how many of you all have a robot at home? Not very many of you. Okay. And actually of those hands, if you don't include Roomba how many of you have a robot at home? So a couple. That's okay. That's the problem that we're trying to solve at Romotive -- that I and the other 20 nerds at Romotive are obsessed with solving.

So we really want to build a robot that anyone can use, whether you're eight or 80. And as it turns out, that's a really hard problem, because you have to build a small, portable robot that's not only really affordable, but it has to be something that people actually want to take home and have around their kids. This robot can't be creepy or uncanny. He should be friendly and cute.

So meet Romo. Romo's a robot that uses a device you already know and love -- your iPhone -- as his brain. And by leveraging the power of the iPhone's processor, we can create a robot that is wi-fi enabled and computer vision-capable for 150 bucks, which is about one percent of what these kinds of robots have cost in the past.

When Romo wakes up, he's in creature mode. So he's actually using the video camera on the device to follow my face. If I duck down, he'll follow me. He's wary, so he'll keep his eyes on me. If I come over here, he'll turn to follow me. If I come over here -- (Laughs) He's smart. And if I get too close to him, he gets scared just like any other creature. So in a lot of ways, Romo is like a pet that has a mind of his own. Thanks, little guy. (Sneezing sound) Bless you.

And if I want to explore the world -- uh-oh, Romo's tired -- if I want to explore the world with Romo, I can actually connect him from any other iOS device. So here's the iPad. And Romo will actually stream video to this device. So I can see everything that Romo sees, and I get a robot's-eye-view of the world. Now this is a free app on the App Store, so if any of you guys had this app on your phones, we could literally right now share control of the robot and play games together.

So I'll show you really quickly, Romo actually -- he's streaming video, so you can see me and the entire TED audience. If I get in front of Romo here. And if I want to control him, I can just drive. So I can drive him around, and I can take pictures of you. I've always wanted a picture of a 1,500-person TED audience. So I'll snap a picture. And in the same way that you scroll through content on an iPad, I can actually adjust the angle of the camera on the device. So there are all of you through Romo's eyes. And finally, because Romo is an extension of me, I can express myself through his emotions. So I can go in and I can say let's make Romo excited.

But the most important thing about Romo is that we wanted to create something that was literally completely intuitive. You do not have to teach someone how to drive Romo. In fact, who would like to drive a robot? Okay. Awesome. Here you go. Thank you, Scott.

And even cooler, you actually don't have to be in the same geographic location as the robot to control him. So he actually streams two-way audio and video between any two smart devices. So you can log in through the browser, and it's kind of like Skype on wheels. So we were talking before about telepresence, and this is a really cool example. You can imagine an eight-year-old girl, for example, who has an iPhone, and her mom buys her a robot. That girl can take her iPhone, put it on the robot, send an email to Grandma, who lives on the other side of the country. Grandma can log into that robot and play hide-and-go-seek with her granddaughter for fifteen minutes every single night, when otherwise she might only be able to get to see her granddaughter once or twice a year.

Thanks, Scott.


The New Romo from Romotive on Vimeo.

So those are a couple of the really cool things that Romo can do today. But I just want to finish by talking about something that we're working on in the future. This is actually something that one of our engineers, Dom, built in a weekend. It's built on top of a Google open framework called Blockly. This allows you to drag and drop these blocks of semantic code and create any behavior for this robot you want. You do not have to know how to code to create a behavior for Romo. And you can actually simulate that behavior in the browser, which is what you see Romo doing on the left. And then if you have something you like, you can download it onto your robot and execute it in real life, run the program in real life. And then if you have something you're proud of, you can share it with every other person who owns a robot in the world. So all of these wi-fi–enabled robots actually learn from each other.

The reason we're so focused on building robots that everyone can train is that we think the most compelling use cases in personal robotics are personal. They change from person to person. So we think that if you're going to have a robot in your home, that robot ought to be a manifestation of your own imagination.

So I wish that I could tell you what the future of personal robotics looks like. To be honest, I have no idea. But what we do know is that it isn't 10 years or 10 billion dollars or a large humanoid robot away. The future of personal robotics is happening today, and it's going to depend on small, agile robots like Romo and the creativity of people like yourselves. So we can't wait to get you all robots, and we can't wait to see what you build.


Enhanced by Zemanta

2012年9月1日 星期六

雲端人工智慧結合超級電腦將是下一場革命 ( AI and super-computer become another revolution in cloud )

English: Watson demoed by IBM employees.
English: Watson demoed by IBM employees. (Photo credit: Wikipedia)
誰還需要 Siri? IBM想把超級電腦Watson做成手機

IBM 花了 5 年時間研發的超級電腦「Watson」在 2011 年 3 月於益智競賽節目《Jeopardy》中,以絕對優勢擊敗兩名人類選手。現在 IBM 試圖將這項技術應用到手機上。據《路透社》報導,IBM 研發副總 Bernie Meyerson 設想的願景是能夠用語音啟動 Watson,讓他能像蘋果研發的個人助理 Siri 一樣回答使用者問題,不過解決問題的能力將遠勝 Siri。

你可以問 Siri:我明天出門約會該不該帶傘?但其實這種單純的問題Siri正確回答的機率也還是小於 70%;然而你可以問 Watson:我什麼時候該種玉米?Watson 會在數秒內根據你的所在地處理完相關的歷史趨勢及科研資料。

IBM 一直有計畫地探索 Watson 的附加功能並開發新的市場,估計 Watson 在 2015 年前所帶來收益達 160 億美元。IBM 曾讓 Watson 處理花旗的財金資訊,和 WellPoint 的癌症資料。而下一版的 Watson 2.0 將具備足夠的能源效率,能夠在智慧型手機和平板電腦上運作。

目前 Watson 耗電的速度,據 Meyerson 表示,就和石頭掉到地上的速度差不多。

另一項挑戰是 Watson 需要花一些時間進行學習,才能在一個領域中變得具有可靠性。IBM 去年 9 月開始讓 Watson 應用在 WellPoint 需要的腫瘤領域,但估計要到 2013 年底  Watson 才會變成專家。

然後研究者還需要增加語音與影像辨識系統,Watson 才能對現實世界輸入的資料做出回應,好在 IBM 已經具有轉譯影像的技術,所以這個問題應該會比較好解決。

Meyerson 表示,有一天 Watson 會成為世界所有知識庫中最不可思議的引擎。

語音新創應用

最近參加一個資通訊產品的創新設計及應用比賽擔任評審,參加的產品五花八門,有智慧型行動裝置、雲端應用、高效能桌上型電腦、聯網電視、遊戲機、數位相機、印表機等等,令人目不暇給。

說實在的,各產品都有其獨特的優點,如何擇優給獎對評審真是一大挑戰。因為有的產品以精緻取勝、有的則以設計出線、另有以創新人機介面勝出、也有以性價比來凸顯其價值。尤其『創新』這個用詞,人言人殊,很難有一個共通的準則與判斷的基準,因此在評審過程中引發委員諸多的討論。最後,在投票表決的情況下選出了iPhone 4S。主要的理由之一,在於其透過語音辨識及人工智慧的技術,開創了未來科技應用上的無限可能。

基本上,語音辨識及人工智慧一直是科學上研究的重要主題,但在技術無法有效突破的情況下,應用有其侷限。不過許多廠商仍著眼其未來可能的廣大應用而持續的投入。IBM的華生及Apple的Siri兩個案例,給產業界帶來很大的驚喜與曙光。

IBM過去的電腦『深藍』(Deep Blue),以西洋棋天才棋王Kasparov為挑戰對象,於1997年五月締造了歷史紀錄,讓世界棋王俯首稱臣,榮登世界棋王寶座,亦即史上第一次電腦擊敗了人腦。

在「深藍」之後,IBM再推出「華生」(Watson)電腦,挑戰電視益智節目高手,台灣時間2102年二月17日上午,IBM Watson電腦,順利奪得美國老牌益智節目「Jeopardy!」的頭獎美金一百萬元,成為該節目最新出爐的紀錄保持者。

從技術上觀察,華生電腦的人工智慧比以前的電腦更進一步,能辨識及瞭解複雜變化的人類語言,包括相關語、諷刺和字謎,像真人一樣快。這項科技若能進一步發展,對現實世界的實務運用應會來帶來深遠影響。

而Apple身為新興應用與使用者介面的領導者,在過去發展行動通訊應用之餘,已將多款常見的智慧型行動裝置操作方式轉化為專利,包括在拖曳與翻頁操作上,畫面的小幅度彈回效果,以及一般常見的滑動解鎖功能,以上幾項專利目前均被Apple作為封鎖Android或是其他陣營在銷售至歐美市場時的進入障礙。

去年Apple搭配新機iPhone 4S內嵌的Siri人工智慧助理軟體,其可以協助使用者做許多的語音輸入的應用,例如查詢天氣,設定鬧鐘。使用者可以跟Siri說我要在7點起床,Siri即會設定7點的鬧鐘;或者跟Siri說,在3點要跟某人開會,其就會幫你預定行程。

人機介面的發展不斷演進,從鍵盤,觸控,手勢,一直到語音,人們的理想都是希望能夠朝自然直覺的方式來應用,雖然技術目前仍不夠完美,但已有初步的成效,假以時日,將可更廣泛的應用於各種如醫療、觀光、零售、電子商務---等等產業及市場,未來潛力值得期待!


Google結合了語音辨識、對語言的理解,及知識圖表等技術,讓語音搜尋更能解析使用者的問題,而且有時會以完整的語音回應,該功能已於數周前支援Android,而且很快就會支援iPhone及iPad。 

即使蘋果已決定在最新的iOS 6中移除Google Maps及YouTube等預設服務,不過Google仍持續開發支援iOS的獨立程式,以避免被排除在高市佔的iOS之外。Google本周宣布即將更新iOS上的Google搜尋程式,新增自然語言搜尋功能,成為Siri的競爭對手。 

支援iOS的Google搜尋原本就提供語音搜尋功能,不過新版將進一步允許使用者以自然語言講出自己的需求,而且程式將會同時透過語音及搜尋結果回應使用者的詢問。 

Google Search資深副總裁Amit Singhal認為,詢問一件事最自然的方式之一就是大聲的講出來,因此Google結合了語音辨識、對語言的理解,及知識圖表等技術,讓語音搜尋更能解析使用者的問題,而且有時會以完整的語音回應,該功能已於數周前支援Android,而且很快就會支援iPhone及iPad。 

使用者在啟用Google Search服務後,只要按下麥克風圖示就能開始進行語音查詢,而且就像朋友間的應對一樣,例如詢問「這個周末有哪些電影在上映?」,除了Google Search會照常列出最近的戲院、電影名稱、時刻表等搜尋結果外,該程式還會以語音回答使用者的詢問。 

Google的Android與蘋果的iOS為全球最大的兩大行動平台,包括平台與行動服務都已成為雙方的戰場,且競爭態勢日趨明顯。

虛擬人腦

建立巨型數位大腦類比,將可改變神經科學與醫學,並找出製造更強大電腦的新方法。

重點提要
  • 電腦類比將以空前逼真的數位化方式,揭開人腦運作各層次的內幕。
  • 2020年以前,數位化大腦或許就可以表現單一腦細胞的運作歷程,甚至是整個大腦的運作方式。
  • 虛擬大腦可以做為真實大腦的替身,幫助我們解開自閉癥的秘密,或進行虛擬藥物試驗。

該是改變大腦研究方法的時候了。

化約生物學(檢視個別腦區、神經迴路與分子)帶我們走了很長的路,但它不足以解釋人腦這個頭顱中舉世無雙的資訊處理器如何運作。我們不但要化約,還要組建;不但要切分,還要建造。要達到這個目標,我們需要一個結合分析與綜合的新典範。化約論之父、法國哲學家笛卡兒就曾寫到分部研究再重組出整體的重要性。

科學界目前有一專案標,就是結合各種技術,設計出一個能夠完全類比人腦的絕妙新科學儀器。儘管這個東西目前還不存在,但我們已在著手建造。你可以把這個儀器想像成史上功能最強大的飛行類比器,只不過它不是類比飛行,而是在大腦中遨遊。這個「虛擬大腦」會在超級電腦上運作,並將神經科學至今所產生的所有資料融合在一起。

數位大腦將成為科學社群的共同資源:研究人員可以預約數位大腦來進行實驗,就像使用大型望遠鏡一樣。他們可以用數位大腦來測試人腦在正常或生病時的運作理論。他們將充實數位大腦的功能,協助發展出自閉癥或精神分裂癥的新診斷測試,還有憂鬱癥和阿茲海默癥的新療法。這個涉及百兆個神經迴路連結的計畫,將啟發仿人腦電腦和智慧型機器人的設計靈感。簡言之,數位大腦將改變神經科學、醫學以及資訊科學。

盒中大腦

在2010年代末,超級電腦的功能將可以支援龐大運算數據的需求,讓科學家得以進行首次的類比人腦實驗。我們無須解開人腦的所有奧秘,就可以打造虛擬大腦。它甚至還可能會提供架構,來幫助我們融會貫通已知的資訊,同時也讓我們得以預測未知。這些預測可以說明未來實驗的重點,讓我們不必做白工。我們所產生的知識將和既有知識結合,架構中的「空隙」也會被越來越多的實際細節填滿。最後,我們就能擁有一個運作和大腦完全相符模型,從分子層級到整個大腦都能夠精準重現。

這是人腦計畫(Human Brain Project, HBP)的目標,約有130所來自世界各地的大專院校參與該項計畫。歐盟宣佈將在接下來的10年內提供高達10億歐元的巨額經費給兩項科學計畫,目前有六項計畫參與競爭,人腦計畫就是其中之一,2013年2月便知錢落誰家。

我們需要這個類比器的理由至少有兩個。光是在歐洲,就有1億8000萬人受腦部疾病所苦(約人口的1/3),隨著人口的老化,這個數字也跟著增加。在此同時,藥廠卻並未投資研究神經系統病變的新療法。以全面性的觀點看待腦部,將讓我們得以透過生物特質來重新分類腦部疾病,而非只是將它們視為各種癥狀的組合。這種開闊的觀點,將幫助我們發展出專門針對潛在異常狀況的療法。

第二個理由是電腦運算遭遇瓶頸,並需要進一步的發展。儘管電腦處理資訊的功能越來越強大,但是仍然無法像動物的大腦般輕鬆完成許多任務。例如電腦科學家在視覺辨認上已有了重大進展,但是這些機器仍然無法像大腦般能以一個畫面的內容或是隨機的片段資訊來預測未來。

此外,越強大的電腦越耗電,電力供應總有一天會不足。目前超級電腦的效能是以千兆浮點運算(petaflop)為單位,也就是每秒能進行千兆次的邏輯運算。到了下一個世代(約2020年),運算速度將比現在快1000倍,變成百萬兆浮點運算(exaflop)。一部百萬兆級的機器要消耗約20百萬瓦的電力,約等於一個小鎮的冬季用電量。為了製造出功能日益強大的電腦,讓它以高效能的方式做到一些人腦可以輕易完成的事情,我們需要全新的策略。

我們也可以從人腦獲得一些啟發,畢竟它執行許多心智功能時,只需耗能20瓦左右,約等於一顆微弱燈泡所需的電力,是百萬兆級機器的百萬分之一。為了達到這個目標,我們必須瞭解大腦從基因到行為的多層組織。所有知識都在那裡,但我們必須將它們融會貫通,此時我們的類比器就變成這項任務的平臺。

有評論者認為,類比人腦是無法達成的目標,主要的反對理由之一是不可能複製大腦中百兆個神經突觸的連結,因為我們根本無法對其進行量測。我們確實無法量測大腦突觸的連結網路,因此我們並不打算全盤複製它,我們計畫以不同的方法來重現腦細胞間的大量連結。

我們的關鍵策略,是根據大腦的發育方式來描繪基本藍圖,也就是遵循在演化過程中引導大腦發展並在每一個胎兒身上不斷重現的原則。理論上,我們只要掌握那些原則,就可以組建大腦了。人們的懷疑是對的,大腦的複雜程度確實讓人卻步,所以我們才需要超級電腦來掌握這些複雜度。但是要瞭解這些規則還不算太難,只要找到這些規則,我們就能把這份藍圖應用在生物學上,並在電腦上創造一個「矽晶片」大腦。

分析

  • 雲端運算及人工智慧結合超級電腦將是下一場新的產業革命;
  • 主要品牌廠商是 IBM、Google,台灣要準備什麼資源可以成為新的產業之供應鏈?
  • 台灣需要有鼓勵外商來投資之策略,台灣外資投資率之排名是全球倒數第二,馬總統稅制及鼓勵外商來投資之條件太差。
  • 電腦上創造一個「矽晶片」大腦在經濟效益上是否可行將是另一問題,因為耗電量太高,service cost 將過高無法商業化。
  • 雲端智能運算及人工智慧運算優勢是:
    • 10 ~ 100倍速於 smart phone 、 tablet  運算速度;
    • 多處理器平行及分配運算軟體;
    • 10   ~ 100倍速收集網路及群體資訊;
    • 收集網路及群體資訊特徵資料庫;
    • 智能連結集體資料庫;
    • 能處理龐大資料;
Enhanced by Zemanta