Re: [閒聊] KINECT冷下來了?!

看板XBOX作者 (zsyian)時間15年前 (2011/03/03 21:39), 編輯推噓5(5029)
留言34則, 10人參與, 最新討論串5/5 (看更多)
※ 引述《italk1983 (Chet Baker)》之銘言: : 小弟單純從學術角度提供一些拙劣看法, : 就一般使用者而言,這只是一個看起來跟wii差不多的遊戲機, : 但在安全監控、行為辨識以及人機互動上面卻是一大突破, 坦白說,Kinect 在"監視和辨識"上的突破 基本上是觀念突破大於技術突破 學術研究上好笑的是,教授都很堅持要單純使用"影像"來做一些艱困的任務 比如物件切割、深度量測等等 明明就只要加上一些 sensor 就可以解決的問題 不知是死要面子,還是為了堅守"影像處理"的最終防線 硬是要用2D影像來解決 然後說著自己也不知道的事情,比如成本高,廠商不會接受 這種情況我真的遇到太多次了 結果,現在微軟做出售價只要五千多,且一次還給你兩顆3D鏡頭的產品 學術界就開始認為好像也不是那麼貴,加裝 sensor 也是可行的 真是諷刺... 回到 Kinect 上(畢竟這裡是360版啊...不是PhD版) 從 Wii 到 Kinect,以目前的成果來看 對一般的玩家來說,體感大都只是一個必備但不一定是必需的存在 畢竟,體感的本質比較像是"活動",而不是"遊戲" 以目前的Kinect遊戲陣容來看,應該已經滿足大部分的活動類型 短時間內,也沒什麼必要再繼續出類似的活動遊戲 以往,日本微軟在3~4月都會有春季發表會 我想,如果今年有舉辦的話,去年TGS的一些作品應該會有更明確的消息 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 1.160.145.240 ※ 編輯: zsyian 來自: 1.160.145.240 (03/03 21:39) ※ 編輯: zsyian 來自: 1.160.145.240 (03/03 21:55)

03/03 21:46, , 1F
教授不打電動 自然不會注意到這樣的產品
03/03 21:46, 1F

03/03 21:59, , 2F
sensor 行之有年,這和電玩無關
03/03 21:59, 2F

03/03 23:04, , 3F
加sensor不是問題,你高興用8個sensor去偵測也行
03/03 23:04, 3F

03/03 23:05, , 4F
問題是偵測來的資料量太大,處理完三天了,你要是想做
03/03 23:05, 4F

03/03 23:05, , 5F
全人感應開門系統,或是完整動作補捉系列,不就要每動
03/03 23:05, 5F

03/03 23:06, , 6F
一下,就等個3~5天,腦子有洞才這樣搞,這玩意難搞的地
03/03 23:06, 6F

03/03 23:06, , 7F
方跟sensor一點關係也沒,難是難在資料的處理上
03/03 23:06, 7F

03/03 23:07, , 8F
sensor收集到的動作資料,如何即時的轉換成可利用的東
03/03 23:07, 8F

03/03 23:08, , 9F
西,才是難題,這也是微軟kinect技術專利的所在
03/03 23:08, 9F

03/04 02:49, , 10F
倒覺得是因為價錢
03/04 02:49, 10F

03/04 08:08, , 11F
關於資料量和運算量的迷思,我想在這裡就不細談
03/04 08:08, 11F

03/04 08:09, , 12F
簡單的說,3D資訊會增加資料量
03/04 08:09, 12F

03/04 08:10, , 13F
但那資料量本來就是"必須的"
03/04 08:10, 13F

03/04 08:10, , 14F
因為沒有sensor時,還是會用2D影像去算出3D資訊
03/04 08:10, 14F

03/04 08:11, , 15F
重點在於,加了sensor就可以省去"算3D資訊"的步驟
03/04 08:11, 15F

03/04 08:11, , 16F
至於取得"3D資訊"之後,要做什麼事情,那是應用範疇
03/04 08:11, 16F

03/04 08:12, , 17F
我說的是,教授都硬是要用算的去獲得3D資訊
03/04 08:12, 17F

03/04 08:12, , 18F
而不願意加顆sensor
03/04 08:12, 18F

03/04 10:33, , 19F
你不覺得ms可以用這樣的成本是因為有量的關係嗎
03/04 10:33, 19F

03/04 11:40, , 20F
你的說法就像是,要你解二元一次聯立方程式的時候
03/04 11:40, 20F

03/04 11:41, , 21F
你怪說為什麼不先把 y值告訴你,這樣不是很好解嗎
03/04 11:41, 21F

03/04 11:48, , 22F
就生心的觀點來看,單純使用2D訊息有他的意義在,人
03/04 11:48, 22F

03/04 11:49, , 23F
眼在閉單眼的狀態下並不會喪失全部的空間深度訊息
03/04 11:49, 23F

03/04 11:49, , 24F
這點對機器來說是非常困難的,這不也是值得研究的部
03/04 11:49, 24F

03/04 11:50, , 25F
份嗎^^
03/04 11:50, 25F

03/04 11:51, , 26F
不過這牽涉到人腦的認知能力,目前的電腦一時還沒法
03/04 11:51, 26F

03/04 11:54, , 27F
模擬...不然就要像質量效應的Geth複數共振同步處理XD
03/04 11:54, 27F

03/04 11:54, , 28F
不過那幾乎已經變成用"一台"電腦模擬"一個"神經元的
03/04 11:54, 28F

03/04 11:55, , 29F
程度了~XDDD
03/04 11:55, 29F

03/04 12:14, , 30F
我把openNI裝好拿給叫獸看之後...
03/04 12:14, 30F

03/04 12:15, , 31F
"可是我們的目標是只想用一枝攝影機"
03/04 12:15, 31F

03/04 12:15, , 32F
XD
03/04 12:15, 32F

03/04 12:20, , 33F
你自己都說是"學術"研究了
03/04 12:20, 33F

03/04 23:57, , 34F
技術沒突破? 雙攝影機算景深有多不準大家都知道啦
03/04 23:57, 34F
文章代碼(AID): #1DRvdy4f (XBOX)
討論串 (同標題文章)
文章代碼(AID): #1DRvdy4f (XBOX)