Aipoly:為世界上的近三億人構筑虛擬的現實世界
你是否曾有想過,當我們在追求電子產品日新月異的時候,世界上還有 2.85 億人視障人士,他們是在怎么使用著智能手機?
我身邊就有這樣一位朋友,他有著視覺障礙,但卻在日常生活中熟練使用著 iPhone,通過與我微信交流,發(fā)朋友圈,在我見到他之前,幾乎無法相信他是一個看不見現實世界的人。
「只要把我當做與你們一樣的正常人就好,」我還記得他說過這樣一句話。這一切都多虧了 iOS 系統(tǒng)中的 Accessibility(輔助功能),對于正常人來說它可能就是一個小圓點,而對于殘障人士來說,這是一套從視覺、聽覺與物理動作設計的智能手機使用的完整解決方案。
那位朋友告訴我,通過 VoiceOver 與 Speak Screen,他可以像我一樣正常使用手機,它會通過語音告訴你地圖里定位的具體位置,甚至照片的時間地點拍攝環(huán)境。
Accessibility 幫助視障人士認識數字世界,而誰來幫他們看清現實世界,最近有一個詞頻繁出現在視野中,那就是 Aipoly。
Aipoly 來自 Alberto Rizzoli、Marita Cheng 與一幫 Singularity University(奇點大學)技術團隊的合作項目,前者都在致力利用 AI 來解決社會問題的領域有著多年積累。
「我們將所了解到的神經網絡系統(tǒng)集成在這個 app 中,用戶對著需要識別的圖像,按下一個按鈕,便會收到語音信息,這是最簡單的操作?!笰lberto Rizzoli 講道。
Aipoly 工作原理便是分析圖片的各個部分,并通過反向圖片搜索,確定物體的名稱(如「狗」、「汽車」)以及形容詞(如「銀色」、「閃閃發(fā)亮的」)。最重要的地方在于,AI 會理解分解圖像后的信息,將其組合并轉化成音頻轉達給用戶(如「閃閃發(fā)亮的銀色汽車」)。
這仍是一個處于實驗階段的技術,盡管它已經可以識別數百個物體與顏色,不斷自主學習,變得更聰明,并且已經上架了 App Store 提供公開下載。
Alberto Rizzoli 表示 Aipoly 一旦完善,視障人士可以使用它識別一盤食物里分別有什么,或者解讀一張照片里人物的穿衣打扮。
Aipoly的野心很大,他們設想利用它來創(chuàng)造為視障人士設計的「Google 街景」,「我們可以建造一個現實世界的虛擬模型,這樣用戶就不必持續(xù)掃描他們周圍的環(huán)境。」這聽起來像是一個宏偉的計劃。
不得不承認,我們確實在很長一段時間忽略了視障人士的電子消費需求,在過去的 10 年,我們在圖像識別上的技術已經獲得了不少突破,未來的幾年則會變得更加精確。
而 Alberto Rizzoli 認為這 2.85 億人將會為接下來幾年的智能手機,甚至 VR 市場注入更多的活力。Google 在這一領域一直走在前沿,同時 Aipoly 也正在申請獲得來自 Google 的經費支持。