Magic Leap在Twitch上的幾次直播演示可以說都在畫餅,對于實(shí)機(jī)以及操作并沒有進(jìn)行深入的講解,這也讓大家對于它如何運(yùn)作充滿了各種假設(shè)以及好奇心。
在前幾天,也就是6月21日的Unite Berlin大會上,Magic Leap講解了如何開發(fā)Magic Leap One,在其中包含了諸多Magic Leap One工作及運(yùn)行的細(xì)節(jié),那就讓我們一起來看看吧。最關(guān)鍵的是,Magic Leap終于向我們演示了通過Magic Leap One的AR。
首先他們提出的是通過他們的技術(shù),Magic Leap One的AR會真實(shí)的融入到環(huán)境當(dāng)中去,可以讓用戶和平時一樣觀看,而不是與現(xiàn)在的AR眼鏡一樣疊加在視野的上方。不過他們并沒有講解他們用的是什么技術(shù),就當(dāng)成他們畫的另外一張大餅算了。
不過得到了一張餅也要失去一張餅,這就是大餅守恒定律。
Magic Leap交互實(shí)驗(yàn)室的負(fù)責(zé)人Schwab表示,Magic Leap One的視場是有限的,并沒有此前宣稱的那么神奇。不過他也沒有具體說明有限到多少,而是告訴開發(fā)者再知道Magic Leap One有限的視場后如何改變他們的開發(fā)思路。
Schwab提出了四個觀點(diǎn)他認(rèn)為開發(fā)者應(yīng)該注意的,分別為“Less is More”、“Respect The Real World”、“Getting your Attention”、“Reality Considerations”。
“少即是多”用在這里實(shí)在是太取巧了,Schwab提出的這三點(diǎn)其實(shí)都很中肯。在AR體驗(yàn)當(dāng)中,應(yīng)當(dāng)以讓用戶體驗(yàn)到虛擬與現(xiàn)實(shí)之間的融合,將AR作為現(xiàn)實(shí)世界的延伸,而在視場中過多的填充就會造成反效果。
不過考慮到這是對于MLO有限的視場而做出的策略改變,只能拍著手說有道理了。
這條也是對于“少即是多”的闡述,Schwab做了一個比喻,AR就好比現(xiàn)實(shí)世界中的客人,主角任然是現(xiàn)實(shí)世界,AR不能喧賓奪主,可以使用更多的線索引導(dǎo)用戶。
不過對于有限的視場也可以用其他方法補(bǔ)救。通過眼動追蹤我們可以知道用戶正在看什么,當(dāng)用戶視線不在目標(biāo)上的時候,我們可以通過空間化音頻或者是外圍視場中的運(yùn)動來引導(dǎo)用戶的視線。
在設(shè)計的同時,也要考慮到用戶的安全。比如你正在走一個下坡路,而AR信息在上方,這就很容易造成事故。而且在沉浸感強(qiáng)烈的情境下,人們的聽覺會下降,甚至什么都聽不到,這將會造成十分嚴(yán)重的結(jié)果,這也是Schwab提醒開發(fā)者需要十分注意的事情。
在用戶數(shù)據(jù)方面,MLO會從五方面進(jìn)行收集。分別是頭部姿勢、雙手、雙眼、語音還有地理/臨時信息。
頭部姿勢能夠搜集不僅能分析搖頭和點(diǎn)頭和其他的頭部運(yùn)動,還能檢測心跳、步姿和你走路的速度等。
對于眼睛的眼動追蹤和語音命令這兩個功能,除了本職工作以外,還能夠通過眼睛的形態(tài)和聲調(diào)的高低大小來判斷用戶的情緒。
通過眼睛收集的信息主要來自于眼睛停止轉(zhuǎn)動的時刻,我們的眼睛一直在不斷地轉(zhuǎn)動(這期間的速度很快,幾乎采集不到什么信息),如果它沒動說明我們正在經(jīng)歷某些事情。這時就會采用到心理學(xué)的知識,比如眼睛向下看說明在思考,向左上方看時在思考。
最令人意外的還是第一次被透露的地理信息和臨時信息的收集,通過收集用戶之間交互的地理信息與臨時信息來分析趨勢,來為用戶判斷更好的選擇。不過如何運(yùn)行這項(xiàng)功能,并未透露。
至于手部姿勢,MLO可以識別八種手勢,如下圖所示。
在識別手勢時,將會先由頭部姿勢判斷,然后開啟深度攝像頭掃描近場來識別手勢,能夠同時識別雙手的手勢。在手勢識別的時候,會有八個點(diǎn)跟蹤,這將會把八個特定的手勢和平常的手勢區(qū)分開來。
說到這里就要談一下MLO的交互模式了。MLO對于指令的輸入是對綜合頭部、眼動追蹤、手勢信息進(jìn)行的綜合,將頭部姿勢與視線還有手勢相結(jié)合。
比如眼前有三個方塊,通過頭部姿勢和眼動追蹤能夠知道你正在看的是哪一個方塊,然后再識別手勢例如Thumb就能夠選中那個方塊了,也就是說能夠預(yù)判用戶的選擇。
通過之前所講對于用戶心理的分析,MLO可以判斷用戶是有目的的選擇,而不是隨便瞎選,從而達(dá)到準(zhǔn)確的預(yù)判。
這種操作設(shè)置其實(shí)也比較符合人本身的運(yùn)動規(guī)律,在同一時間是多個器官同時運(yùn)作的。
而與之配套的,Magic Leap開發(fā)了一套多式交互模型——TAMDI。
代表著五個步驟,分別為Targeting(目標(biāo))、Activation(獲?。anipulation(操縱)、Deactivation(失活)、Integration(整合),五個步驟構(gòu)成一個循環(huán)過程,對頭、眼、手三個部位的信息進(jìn)行整合判斷。
說了半天終于要講到MLO的演示視頻了,不過在此之前我們先來看看公布的Magic Leap的工具包——Magic Kit。受限于信息與篇幅(最主要還是丸子醬不懂),就不介紹具體的使用教程,讓我們一起來看看這個工具包里面都有些什么。
首先是Environment Toolkit,能夠說明現(xiàn)實(shí)空間中物體的位置,識別遮掩物背后被藏起來的識別點(diǎn),還有房間的角落。
使得虛擬內(nèi)容能夠更符合現(xiàn)實(shí)世界規(guī)則,增強(qiáng)沉浸感。源代碼則會放在在GitHub上,供開發(fā)者下載。
空間中那些點(diǎn)是Magic Leap提出的環(huán)境映射概念——BlockMesh,這是Lumin SDK for Unity中MLSpatialMapper預(yù)制件的可用網(wǎng)絡(luò)類型。
網(wǎng)格在內(nèi)部重建,物體都將會表現(xiàn)為互聯(lián)的三角形網(wǎng)格。但這些網(wǎng)格之間并沒有相互連接,是為了在轉(zhuǎn)換目標(biāo)的時候能夠快速更新網(wǎng)格。同時帶來的好處是MLO的識別更加緊密、貼近邊界,你可以看到虛擬對象是結(jié)結(jié)實(shí)實(shí)的踩在地上的,這會帶來更好的沉浸感。
在揮手時,虛擬人也能夠同樣向我們揮手,MLO的姿勢API有以下這些。
SDK API則有一下幾種。
開發(fā)包包括的工具以下。
這些就是大致的內(nèi)容了,除此之外他們還透露控制器將會繼續(xù)保留,在手勢與控制器之間,控制器能夠帶來更好的觸感和反饋。在一項(xiàng)Magic Leap的專利里面我們可以找到控制器的樣子。
這次大會上給我們帶來了諸多MLO的信息,雖說戳穿了餅并沒有畫的那么大,但是更加的真實(shí)了,最終效果如何還是讓我們一起期待吧。
-
Ar
+關(guān)注
關(guān)注
24文章
5109瀏覽量
170226 -
Magic Leap
+關(guān)注
關(guān)注
0文章
88瀏覽量
11060 -
AR眼鏡
+關(guān)注
關(guān)注
4文章
544瀏覽量
23422
原文標(biāo)題:Magic Leap公布透過MLO的演示視頻,以及其他更多細(xì)節(jié)
文章出處:【微信號:ARchan_TT,微信公眾號:AR醬】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論