[來玩] Image Analogies (end

看板TurtleSoup (海龜板)作者 (長鷹寶寶實驗室)時間11年前 (2014/11/30 22:44), 11年前編輯推噓22(22014)
留言36則, 6人參與, 最新討論串1/1
題目: 在2001年的時候被刊登的image analogies 是由紐約大學的Aaron Hertzmann等人所撰寫 在當時正是圖像處理與辨識最當紅的時期 而這篇論文以合理又簡潔的方法 達到"理論上可以做到所有的影像處理"的目標 在當時的圖像處理學界備受推崇 其最大的缺點就是需要大量的參考資料 還有大量的計算 當時都被認為會隨著電腦軟硬體的發展 還有平行運算與雲端運算的發展而克服 結果時至今日 已經沒有人在用這個演算法了 請問為什麼這樣理論上完美的演算法 最終還是無法克服他的缺點? 備註: 請參閱同名論文 ======遊戲開始、進行中、尤其是結束之後,請在標題中註明!(按大T修改標題)====== -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.77.14 ※ 文章網址: http://www.ptt.cc/bbs/TurtleSoup/M.1417358692.A.133.html

11/30 22:48, , 1F
未看先猜(?)因為資訊有dependence,平行運算效果不彰?
11/30 22:48, 1F

11/30 22:53, , 2F
沒有人在用 是因為計算量大這個缺點?
11/30 22:53, 2F
是 為什麼計算量大? 而且為什麼在運算能力大大增強的現在仍是無法克服?

11/30 22:55, , 3F
有其他更好的替代方案出現了?
11/30 22:55, 3F

11/30 22:56, , 4F
與演算法的執行步驟有關?
11/30 22:56, 4F

11/30 22:56, , 5F
無法克服的原因是在於無法以平行運算減少時間嗎?
11/30 22:56, 5F

11/30 22:58, , 6F
因為現在的圖片 像素點也大幅增加?
11/30 22:58, 6F
是 但非主因

11/30 23:02, , 7F
因為他是pixel to pixel?
11/30 23:02, 7F
是 所以?

11/30 23:03, , 8F
因為沒有必要? 他必須要轉化整個圖片而無法局部進行?
11/30 23:03, 8F
是 為何? 否

11/30 23:05, , 9F
因為現在圖的pixel太多 根本有很大一片中的點是一樣的
11/30 23:05, 9F
是 我想這種其他演算法也會碰到的點 跟這個演算法本身的問題沒有什麼關係 還是別問了

11/30 23:12, , 10F
問題是出在CREATEIMAGEANALOGY 還是BESTMATCH ?
11/30 23:12, 10F
是 是

11/30 23:15, , 11F
跟複雜度有關? 根本就是非多項式時間可以完成的?
11/30 23:15, 11F
是 否 (關鍵是一般的圖像處理演算法跟該演算法的差異

11/30 23:18, , 12F
因為太慢了!
11/30 23:18, 12F
是 為什麼? 他跟其他圖像處理演算法的差異在哪裡?

11/30 23:24, , 13F
因為幾本上是點對點全掃一遍 跟暴力解沒兩樣
11/30 23:24, 13F
是 可以這麼說

11/30 23:25, , 14F
所以沒有實用價值?
11/30 23:25, 14F
是 請問圖像處理的暴力解是怎麼解的? 又 暴力解跟一般的圖像處理 差異在哪裡?

11/30 23:30, , 15F
一般圖像處理感覺比較像是取小範圍的平均值(?
11/30 23:30, 15F

11/30 23:30, , 16F
這種感覺?
11/30 23:30, 16F
否 (那是屬於down sizing跟smoothing 只是圖像處理的一部分

11/30 23:32, , 17F
一般圖像處理主要是找局部特徵去做比對
11/30 23:32, 17F
否 (那是單純在pattern recognition或是image enhancement 也只是圖像處理的一部分

11/30 23:33, , 18F
這篇直接用點對點比對
11/30 23:33, 18F

11/30 23:34, , 19F
有一種 "不管拉反正我找出來了"的感覺 XD
11/30 23:34, 19F
是 所以這兩者為什麼會有計算量的差異?

11/30 23:34, , 20F
但其實並無從了解為什麼找這個點
11/30 23:34, 20F
是 所以關鍵點是? 一個有什麼一個沒什麼?

11/30 23:36, , 21F
是這篇有什麼嗎?
11/30 23:36, 21F

11/30 23:37, , 22F
這篇沒做什麼?
11/30 23:37, 22F

11/30 23:38, , 23F
沒去排除掉什麼嗎?
11/30 23:38, 23F

11/30 23:38, , 24F
沒有分區塊?
11/30 23:38, 24F

11/30 23:39, , 25F
the implementation has never been hand-tuned?
11/30 23:39, 25F
是 為什麼? 之所以不用hand-tuned的原因是因為?

11/30 23:40, , 26F
沒有建立甚麼嗎?
11/30 23:40, 26F

11/30 23:41, , 27F
沒有在過程中建立instance 每次比對都要從頭來過?
11/30 23:41, 27F

11/30 23:41, , 28F
沒有依據每個點的特徵去簡化「點對點」的步驟?
11/30 23:41, 28F
是 來個名詞吧 沒有建立____?

11/30 23:42, , 29F
媽豆
11/30 23:42, 29F
湯底 ※ 編輯: longlyeagle (140.112.77.14), 11/30/2014 23:43:38

11/30 23:45, , 30F
果然是model 我剛一時沒想到只想到instance
11/30 23:45, 30F

11/30 23:47, , 31F
他的feature只用來比對L2norm差異= =
11/30 23:47, 31F

11/30 23:48, , 32F
不過竟然這樣就被淘汰了…
11/30 23:48, 32F

11/30 23:48, , 33F
| 。 ∀゜)其實我根本看不懂
11/30 23:48, 33F

11/30 23:48, , 34F
這讓我想到類神經網路
11/30 23:48, 34F

12/01 00:03, , 35F
關鍵是十幾年了還是無法實用吧
12/01 00:03, 35F

12/01 00:04, , 36F
不過仍然是一篇很有趣的想法的論文
12/01 00:04, 36F
文章代碼(AID): #1KUora4p (TurtleSoup)
文章代碼(AID): #1KUora4p (TurtleSoup)