1 / 21

圖書資訊學

圖書資訊學. 授課教師:卜小蝶教授 報告日期: 2008.11.15 097153103 鄭美珍 097153104 邱亦秀. Some(what) Grand Challenges for Information Retrieval 資訊檢索的挑戰. Nicholas J. Belkin School of Communication, Information and Library Studies Rutgers University. 大綱. 文章來源 文章內容 專題 Session 挑戰 Challenge 結論 Conclusion.

sonja
Download Presentation

圖書資訊學

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 圖書資訊學 授課教師:卜小蝶教授 報告日期:2008.11.15 097153103 鄭美珍 097153104 邱亦秀

  2. Some(what) Grand Challenges for Information Retrieval資訊檢索的挑戰 Nicholas J. Belkin School of Communication, Information and Library Studies Rutgers University

  3. 大綱 • 文章來源 • 文章內容 • 專題 Session • 挑戰 Challenge • 結論 Conclusion (http://www.scils.rutgers.edu/~belkin/belkin.html)

  4. 文章來源 • 2008年3月31日,於英國Glasgow舉辦的ECIR中keynote speech。 • ECIR: The annual European Conference on Information Retrieval (ECIR) is the major European forum for the presentation of new research results in the broad field of Information Retrieval.

  5. 1. 專題 Session • Information Retrieval 主流研究轉向!? • Karen Spärck Jones (1988年ACM SIGIR Gerard Salton獎) IR的進步,在於解決使用者問題 • Tefko Saracevic (1997年ACM SIGIR Gerard Salton獎) IR是廣義的,不能只重視演算法、電腦及運算;必須把使用者行為納入考量。 • Ingwersen and Järvelin (2005) ,The Turn 使用者整合研究:任務、目的、資訊行為

  6. ACM SIGIR Award • Gerard Salton Award 自1983年起,每三年評選一次,選出在IR研究中具有重大、持續貢獻者: • 1988年Karen Spärck Jones (1935-2007) • 1997年Tefko Saracevic • Best Paper Award • Best Student Paper Award • Best Poster Award (http://www.sigir.org/awards/awards.html)

  7. 2. 挑戰 Challenge 2.1 使用者的目的、任務、動機 2.2 一般資訊行為的支援 2.3 情境 2.4 效果 2.5 個人化 2.6 IR的整合 2.7 IR的評估範式 2.8 互動性IR的正式/非正式模組

  8. 2.1 挑戰:使用者的目的、任務、動機 人們的目的、任務和動機,大大的影響他們對使用效益的評斷 • 有能力可以區分三者 • 在模糊線索中推論三者的方法 • 使用者行為研究,以及IR科技發展的整合

  9. 2.2 挑戰:一般資訊行為的支援 只為特定檢索(specified search)考慮IR模組和技術 不夠!!

  10. 2.3 挑戰:情境 • 2006年IIiX會議(Information Interaction in Context)專題討論會名稱:「What is not context?」 everything is context !! • 找到方法去確認情境 • 情境如何影響資訊行為 • 可比較不同情境的評估方法

  11. 2.4 挑戰:效果 • IR研究主流:IR系統的效率與有效性 • 變項:使用者的情緒 Kuhlthau, C. C. (1991). Inside the search process: information seeking from the user’s perspective. Journal of the American Society for Information Science, 42, 361-371. 愉快的IR過程 使用者覺得有效 同等重要

  12. 2.4 挑戰:效果 • 體會到效果的重要性 • 了解資訊互動過程中會發生什麼情緒 • 找出確認情緒的方法 • 了解情緒的原因 • 加強IR科技 • 提升知識互動經驗

  13. 2.5 挑戰:個人化 • 想想個人化會發生什麼狀況 • 確認每個狀況的面向可以確實掌握 • 不同面向間的交互作用 • 一個考慮到所有結果並導入真實個人化經驗的裝置

  14. 2.6 挑戰: IR的整合 • IR研究的最終任務:使用者完全不用經由不同的IR系統查得資料 meta-search?

  15. 2.7 挑戰: IR的評估範式 • TREC - Text REtrieval Conference 支援資訊檢索領域的基礎研究,並提供大型文字檢索方式的評估辦法 • 並不適合用來評估互動IR系統,這類系統需要有非常嚴謹的限制,所以很難達到。 • CLEF - Cross-Language Evaluation Forum • INEX - INitiative for the Evaluation of XML Retrieval

  16. 2.7 挑戰: IR的評估範式 • 由網頁搜尋引擎(Web search engines)來搜集並分析大量的互動查詢資料 • 我們可以看到研究分析中的質性差異 • 整合查詢行為及意圖的抽樣調查log分析 • 有問題!一般研究社群是否願意提供這些資料?根據AOL的經驗

  17. 2.8 挑戰:互動性IR的正式/非正式模組 目前在IR相關研討會(包括ECIR和SIGIR)的論文,都是有關: • 新的、或正式的IR模組(語言模組) • 改進的模組(流暢化) • 專業技術模組的成果 • 技術的效益評估

  18. 2.8 挑戰:互動性IR的正式/非正式模組 這些模組沒有為使用者設定空間、沒有互動 • 資訊物件的呈現; • 靜態查詢; • matching和排序的技術。 Karen Spärck Jones 唯一的例外是Norbert Fuhr(2008)發表的論文 Fuhr, N. (2008) A probability ranking principle for interactive information retrieval. Information Retrieval, v.11: 251-265.

  19. 3. 結論 Conclusion • 發展IR模組,須有使用者參與 • 有各領域研究人員參與 • 可能必須放棄已定型的IR模組

  20. 參考資料 • Nicholas J. Belkin’s Home Page http://www.scils.rutgers.edu/~belkin/belkin.html • ACM SIGIR (Special Interest Group on Information Retrieval) http://www.sigir.org/ • TREC - Text REtrieval Conference http://trec.nist.gov/ • CLEF – Cross-Language Evaluation Forum http://www.clef-campaign.org/ • INEX - INitiative for the Evaluation of XML Retrieval http://inex.is.informatik.uni-duisburg.de/ • Prof. Dr.-Ing. Norbert Fuhr http://www.is.informatik.uni-duisburg.de/staff/fuhr.html

  21. 報告完畢 謝謝~

More Related