Introduction to LDA
Linear Discriminant Analysis
Not latent dirichlet allocation
guanqoo
2009年10月5日 星期一
2009年8月6日 星期四
Experiment Result for Pair Method
此篇為闡述實驗結果,相關的說明在PPT的摘要中,可下載來看已獲得更詳細的說明。
1. 對於相同網站,可以下不同的query來作比較。
2. 對於相同網站,相同query,不同時間來做比較。
1. 對於相同網站,可以下不同的query來作比較。
2. 對於相同網站,相同query,不同時間來做比較。
3. 詢問之前發表過的論文,詢問作者是否有留下測試資料。
4. 在Combine process之後可以針對每筆合併的vector新增feature。
5. Attribute的feature可以比較新增下一個attribute的feature後的不同。或者下下個。
6. Attribute在set中的位置也可以當作feature。
7. 此次實驗為Attribute label,可嘗實驗instance label。
8. 其他Domain的測試。
9. 多看論文。
2009年4月29日 星期三
ProgressReport09/04/27
延續上次的議題
以Old.xml 作Testing New.xml作Training 的測試下
同樣feature的輸入 其表現結果非常不好
instance accurary只有不到20%的效果
attribute accurary只有1/4
嚐試使用其他的feature set
attribute accurary最佳的效果只有2/4
面對不同的XML資料 所適用的featrue set 差異很大
以Old.xml 作Testing New.xml作Training 的測試下
同樣feature的輸入 其表現結果非常不好
instance accurary只有不到20%的效果
attribute accurary只有1/4
嚐試使用其他的feature set
attribute accurary最佳的效果只有2/4
面對不同的XML資料 所適用的featrue set 差異很大
對new.xml vs old.xml適用的feature set 不一定能應用在old.xml vs new.xml的對應上
上圖是以上次的feature set 當作輸入
我們所關心的Class 6 ,17 ,27 ,32中
只有Class 27是正確對映到的之外
其他Class並沒有很明顯的對映到正確的Class
2009年4月22日 星期三
Progress Report(09/04/16)
1.增加時間類型的feature 以求提高 attribute 17的precision 及recall
增加兩種計算時間格式的方法 time1 及 time2 以及之前的五個屬性 {: _ . , ?} 由於{? _} 兩屬性成效不高 刪除
但結果仍然囧
舊資料 | 新資料 | |||
instance accuracy | 30.59% | 32.16% | ||
Recall | 6 | 0.93 | 0.93 | |
17 | 0 | 0 | ||
27 | 0.5 | 1 | ||
32 | 0.857 | 0 | ||
Precision | 6 | 0.189 | 0.25 | |
17 | 0 | 0 | ||
27 | 1 | 0.969 | ||
32 | 0.92 | 0 |
2.比較不同Thread的Rejection 機制下的instance及attribute 的 accuracy (並畫圖)
摸索中
3.整理用過的程式
之前用c++寫 因為語言沒有支援xml 所以上網找了tinyxml
這是一款很多功能的xml 工具
http://www.grinninglizard.com/tinyxml/ 包含了驗證等功能 比lite還麻煩
也找了另一個m$出的簡易版XML,對於只要讀寫XML等動作也是非常簡便 (但也摸很久 囧)
http://msdn.microsoft.com/zh-tw/magazine/cc163436.aspx
直到我遇到他.............
C#
有種相逢恨晚的感覺
http://support.microsoft.com/kb/307548/zh-tw
真的是連猴子也會呢XD
4.比較舊feature set 以及新feature set 的instance 以及attribute 的accuracy
如圖一:
ps:帳號密碼try 好久 囧
用部落格分享照片、影音、趣味小工具和最愛清單,盡情秀出你自己 — Windows Live Spaces
2008年11月5日 星期三
Data Selection For Support Vector Machine
摘要:
本論文介紹MSVM(Minimal Support Vector Machine)分類器,其概念為"基於SVM的架構下,減少其support vectors"。此分類器應用於Fraud detection等含有數以萬計的data points,亦可以增進其他需要大量support vector才能決定的分類器之效能。
內文首先介紹SVM的作用及原理,其後介紹MSVM。此技術使用fast linear programming並加入了error term來減少所使用的vectors。最後提出了SLA(Successive Linearization Algorithm)的演算法來實作MSVM。最後是實驗比較。
將MSVM和FSV以及1-norm SVM對於七個資料集運算的結果做比較,明顯的發現MSVM所使用的support vectors遠低於另外兩個分類器所需要的個數。此外,對於一些資料集來說,MSVM的效能高於另外兩個分類器 。
本論文介紹MSVM(Minimal Support Vector Machine)分類器,其概念為"基於SVM的架構下,減少其support vectors"。此分類器應用於Fraud detection等含有數以萬計的data points,亦可以增進其他需要大量support vector才能決定的分類器之效能。
內文首先介紹SVM的作用及原理,其後介紹MSVM。此技術使用fast linear programming並加入了error term來減少所使用的vectors。最後提出了SLA(Successive Linearization Algorithm)的演算法來實作MSVM。最後是實驗比較。
將MSVM和FSV以及1-norm SVM對於七個資料集運算的結果做比較,明顯的發現MSVM所使用的support vectors遠低於另外兩個分類器所需要的個數。此外,對於一些資料集來說,MSVM的效能高於另外兩個分類器 。
2008年10月1日 星期三
SVM
最近在很多的課程都有提到一些SVM的訊息,但是對於小弟而言,SVM只是三個英文所組成的東西
並不了解其內容,於是去查了一些資料
http://www.csie.ntu.edu.tw/~piaip/docs/svm/
以上是一個SVM的簡易入門 ,由林教授的學生所撰寫
除了介紹SVM,也有libsvm的使用方式
簡單來說,SVM是一個分類器,
在不知道分類標準的情況下,我們先給SVM分類好的訓練資料
SVM會自行判斷出分類的準則且標示其分類空間
至於其原理..我還在啃.
不過這個東西真的很酷!
如果可以寫出自行判斷甚麼時候買股票的話...
並不了解其內容,於是去查了一些資料
http://www.csie.ntu.edu.tw/~piaip/docs/svm/
以上是一個SVM的簡易入門 ,由林教授的學生所撰寫
除了介紹SVM,也有libsvm的使用方式
簡單來說,SVM是一個分類器,
在不知道分類標準的情況下,我們先給SVM分類好的訓練資料
SVM會自行判斷出分類的準則且標示其分類空間
至於其原理..我還在啃.
不過這個東西真的很酷!
如果可以寫出自行判斷甚麼時候買股票的話...
訂閱:
文章 (Atom)