紐約時報提供AR大型強子對撞機體驗
責任編輯:傳說的落葉 時間:2018-12-25 09:09
[導讀]利用ARKit和ARCore的平面追蹤功能,紐約時報的應用可以投影出2012年6月10日Atlas大型強子對撞機對撞過程的3D模型。
盡管我們不可能回到過去來觀察宇宙誕生之初的大爆炸,紐約時報通過其APP最新的增強現實功能給讀者提供了最接近的模擬體驗。
上周五,紐約時報發(fā)布了名為“大型強子對撞機的中場休息”的互動故事,讓讀者可以觀看虛擬的瑞士歐洲核研究中心(CERN)大型強子對撞機,并探索其最著名的發(fā)現——希格斯玻色子。
這是一段由一系列360度照片以及VR視頻構成的大型強子對撞機虛擬之旅,在這段旅途中,物理學家將亞原子粒子進行碰撞,模擬了宇宙大爆炸發(fā)生的條件,揭示了宇宙隱藏的秘密。
通過增強現實,讀者可以看到一個證明了希格斯玻色子存在的粒子碰撞過程,這一過程為整個研究團隊贏得了諾貝爾獎。利用ARKit和ARCore的平面追蹤功能,紐約時報的應用可以投影出2012年6月10日Atlas大型強子對撞機對撞過程的3D模型。
3D模型顯示了設備的輪廓和碰撞中粒子的路徑,標識出了幾個罕見的粒子。這些粒子設法刺穿了對撞機內部探測器由鉛和鐵制成的外殼。這種體驗與大型強子對撞機本身相匹配,占用了很大的空間,可以從起居室一直延續(xù)到相鄰的房間。
Google Lens目前可辨認產品已經超過10億
谷歌的人工智能分析工具Google Lens現在可以識別谷歌零售與價格比較網站中的超過10億種產品。這是它2017年10月首次亮相時所覆蓋物體數量的四倍。
Google Lens和增項顯示副總裁Aparna Chennapragada在一篇關于Google Lens里程碑的回顧博客文章中披露了這一消息。
她寫道:“我花了十年時間,領導團隊通過谷歌搜索、谷歌助手和現在的Google Lens構建使用人工智能幫助人們日常生活的產品。每一個醒著的時刻,我們依靠我們的視覺來理解我們的環(huán)境,記住各種信息,探索我們周圍的世界......我看到相機開創(chuàng)了一整套新的信息發(fā)現和支持機會。”
在本文中所說的產品是指產品標簽。Google Lens利用了光學字符識別引擎,這是一種借鑒了谷歌搜索引擎,使用AI來識別不同字符、語言和字體、拼寫校正模型的系統(tǒng)。光學字符識別引擎可以匹配Google Shopping中不同類別產品的條形碼,二維碼,ISBN號和其他字母數字標識符。
- 分享到:
- 人工智能快訊:微軟2024年10月23日
- 阿里云開源AI應用開發(fā)2024年10月23日
- 如何將阿里云服務器2024年10月23日
- 衡陽師范獲省計算機2024年10月16日
- 杭州文三3D打印創(chuàng)意設2024年10月10日
- 蘇州點鐵工業(yè)設計申2024年10月10日
- 2024年度中國皮革行業(yè)2024年10月10日
- 2024年世界:人工智能2024年10月10日
- 2024年湖南省“工業(yè)設2024年10月10日
- 快訊:福建旅游產品2024年10月10日