論文閱讀-RankME: Reliable Human Ratings for Natural Language Generation
人工評價仍然是NLG任務主流的評價方式。本文旨在提高人工評價質量。
CrowdFlower 的程式碼,但是感覺都是前端頁面的程式碼。。
相關方法
名稱 | 全稱 | 釋義 |
---|---|---|
Likert | 李克特量表 | |
ME | magnitude estimation | 量值估計 |
plan ME | plain magnitude estimation | 簡單量值估計 |
RankME | rank-based magnitude estimation | 基於排序的量值估計 |
ME是在這篇論文中介紹的(看3.1那一節),原文如下:
Rather than giving participants a fixed scale, we used the magnitude estimation paradigm, which is more suitable to capture robust or subtle differences between the relative strength of acceptability or grammaticality violations
ME 過程是使用了拉丁方設計,讓每一個人給句子打分(分數只有大於0就行),同一個人的打分再進行一個歸一化到0-1之間.
RankME
RankME則是讓每一個人對所有的候選句子進行一個relative ranking(RR)。但是怎麼做relative ranking並沒有之間提到,但是論文說該方法綜合了 ContinuseScale(CS)、MagnitudeEstimation(ME)、Relative
Assessment
和relative ranking最近的就是最後一篇論文,而在那篇論文中,RR的過程就是把候選句子按照句子質量,由好到壞排一下。
但是在這裡,他給了ME的打分準則,我在原文中是沒有看到的。
相關文章
- 《REBEL Relation Extraction By End-to-end Language generation》閱讀筆記筆記
- 讀論文《Toward Controlled Generation of Text》
- 論文閱讀:SiameseFC
- 如何閱讀科研論文
- 阿里DMR論文閱讀阿里
- 並行多工學習論文閱讀(五):論文閱讀總結並行
- MapReduce 論文閱讀筆記筆記
- Q-REG論文閱讀
- SSD論文閱讀筆記筆記
- 「DNN for YouTube Recommendations」- 論文閱讀DNN
- 論文閱讀 狀態壓縮
- [論文閱讀] Hector MappingAPP
- AutoEmbedding論文閱讀筆記筆記
- G-FRNet論文閱讀
- XGBoost論文閱讀及其原理
- 論文閱讀2-思維鏈
- 深度學習論文閱讀路線圖深度學習
- CornerNet-Lite論文閱讀筆記筆記
- 【2020論文閱讀】11月
- 論文閱讀 Inductive Representation Learning on Temporal Graphs
- 論文閱讀:《Learning by abstraction: The neural state machine》Mac
- 論文閱讀——Deformable Convolutional NetworksORM
- 史丹佛大學教授是如何閱讀論文的?
- 閱讀論文的方法和技巧(快速且有效)
- [論文閱讀] 顏色遷移-Correlated Color Space
- 如何入門論文閱讀&綜述小解答
- 閱讀文獻
- [論文閱讀筆記] Structural Deep Network Embedding筆記Struct
- [論文閱讀] Residual Attention(Multi-Label Recognition)
- [論文閱讀] Temporal Extension Module for Skeleton-Based Action Recognition
- [論文閱讀] RNN 在阿里DIEN中的應用RNN阿里
- 推薦系統公平性論文閱讀(二)
- 推薦系統公平性論文閱讀(三)
- 推薦系統公平性論文閱讀(四)
- 推薦系統公平性論文閱讀(六)
- Delphi 論文閱讀 Delphi: A Cryptographic Inference Service for Neural Networks
- 論文閱讀-Causality Inspired Representation Learning for Domain GeneralizationAI
- The Efficacy of Human Post-Editing for Language Translation(1)