情感分析技術在美團的探索與應用

美團技術團隊發表於2021-10-26
2021年5月,美團NLP中心開源了迄今規模最大的基於真實場景的中文屬性級情感分析資料集ASAP,該資料集相關論文被自然語言處理頂會NAACL2021錄用,同時該資料集加入中文開源資料計劃千言,將與其他開源資料集一起推動中文資訊處理技術的進步。本文回顧了美團情感分析技術的演進和在典型業務場景中的應用,包括篇章/句子級情感分析、屬性級情感分析和觀點三元組分析。在業務應用上,依託情感分析技術能力構建了線上實時預測服務和離線批量預測服務。截至目前,情感分析服務已經為美團內部十多個業務場景提供了服務。



參考文獻

  • [1] https://github.com/Meituan-Di...
  • [2] Bu J, Ren L, Zheng S, et al. ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2021.
  • [3] https://www.luge.ai/
  • [4] Zhang, L. , S. Wang , and B. Liu . "Deep Learning for Sentiment Analysis : A Survey." Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery (2018):e1253.
  • [5] Liu, Bing. "Sentiment analysis and opinion mining." Synthesis lectures on human language technologies 5.1 (2012): 1-167.
  • [6] Peng, Haiyun, et al. "Knowing what, how and why: A near complete solution for aspect-based sentiment analysis." In Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No. 05. 2020.
  • [7] Zhang, Chen, et al. "A Multi-task Learning Framework for Opinion Triplet Extraction." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings. 2020.
  • [8] Yoon Kim. 2014. Convolutional neural networks for sentence classification. arXiv preprint arXiv:1408.5882.
  • [9] Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li,Hongwei Hao, and Bo Xu. 2016. Attention-based bidirectional long short-term memory networks for relation classification. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 207–212.
  • [10] Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.” arXiv preprint arXiv:1810.04805 (2018).
  • [11] 楊揚、佳昊等. 美團BERT的探索和實踐.
  • [12] Pontiki, Maria, et al. "Semeval-2016 task 5: Aspect based sentiment analysis." International workshop on semantic evaluation. 2016.
  • [13] Pontiki, M. , et al. "SemEval-2014 Task 4: Aspect Based Sentiment Analysis." In Proceedings of International Workshop on Semantic Evaluation at (2014).
  • [14] Yequan Wang, Minlie Huang, and Li Zhao. 2016. Attention-based lstm for aspect-level sentiment classification. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 606–615.
  • [15] Sara Sabour, Nicholas Frosst, and Geoffrey E Hinton. 2017. Dynamic routing between capsules. In Advances in neural information processing systems, pages 3856–3866.
  • [16] Chi Sun, Luyao Huang, and Xipeng Qiu. 2019. Utilizing bert for aspect-based sentiment analysis via constructing auxiliary sentence. arXiv preprint arXiv:1903.09588.
  • [17] Qingnan Jiang, Lei Chen, Ruifeng Xu, Xiang Ao, and Min Yang. 2019. A challenge dataset and effective models for aspect-based sentiment analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 6281–6286.
  • [18] Wu, Zhen, et al. "Grid Tagging Scheme for End-to-End Fine-grained Opinion Extraction." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings. 2020.
  • [19] Liu, Yinhan, et al. "Roberta: A robustly optimized bert pretraining approach." arXiv preprint arXiv:1907.11692 (2019).
  • [20] Clark, Kevin, et al. "Electra: Pre-training text encoders as discriminators rather than generators." arXiv preprint arXiv:2003.10555 (2020).
    0- [21] Timothy Dozat and Christopher D. Manning. 2017.Deep biaffine attention for neural dependency parsing. In 5th International Conference on Learning Representations, ICLR 2017.

作者介紹

任磊、佳昊、張辰、楊揚、夢雪、馬放、金剛、武威等,均來自美團平臺搜尋與NLP部NLP中心。

招聘資訊

美團搜尋與NLP部/NLP中心是負責美團人工智慧技術研發的核心團隊,使命是打造世界一流的自然語言處理核心技術和服務能力。

NLP中心長期招聘自然語言處理演算法專家/機器學習演算法專家,感興趣的同學可以將簡歷傳送至renlei04@meituan.com。具體要求如下。

崗位職責

  1. 預訓練語言模型前瞻探索,包括但不限於知識驅動預訓練、任務型預訓練、多模態模型預訓練以及跨語言預訓練等方向;
  2. 負責百億引數以上超大模型的訓練與效能優化;
  3. 模型精調前瞻技術探索,包括但不限於Prompt Tuning、Adapter Tuning以及各種Parameter-efficient的遷移學習等方向;
  4. 模型inference/training壓縮技術前瞻探索,包括但不限於量化、剪枝、張量分析、KD以及NAS等;
  5. 完成預訓練模型在搜尋、推薦、廣告等業務場景中的應用並實現業務目標;
  6. 參與美團內部NLP平臺建設和推廣

崗位要求

  1. 2年以上相關工作經驗,參與過搜尋、推薦、廣告至少其一領域的演算法開發工作,關注行業及學界進展;
  2. 紮實的演算法基礎,熟悉自然語言處理、知識圖譜和機器學習技術,對技術開發及應用有熱情;
  3. 熟悉Python/Java等程式語言,有一定的工程能力;
  4. 熟悉Tensorflow、PyTorch等深度學習框架並有實際專案經驗;
  5. 熟悉RNN/CNN/Transformer/BERT/GPT等NLP模型並有過實際專案經驗;
  6. 目標感強,善於分析和發現問題,拆解簡化,能夠從日常工作中發現新的空間;
  7. 條理性強且有推動力,能夠梳理繁雜的工作並建立有效機制,推動上下游配合完成目標。

加分項

  1. 熟悉模型訓練各Optimizer基本原理,瞭解分散式訓練基本方法與框架;
  2. 對於最新訓練加速方法有所瞭解,例如混合精度訓練、低位元訓練、分散式梯度壓縮等

閱讀美團技術團隊更多技術文章合集

前端 | 演算法 | 後端 | 資料 | 安全 | 運維 | iOS | Android | 測試

|  在公眾號選單欄對話方塊回覆【2020年貨】、【2019年貨】、【2018年貨】、【2017年貨】等關鍵詞,可檢視美團技術團隊歷年技術文章合集。

| 本文系美團技術團隊出品,著作權歸屬美團。歡迎出於分享和交流等非商業目的轉載或使用本文內容,敬請註明“內容轉載自美團技術團隊”。本文未經許可,不得進行商業性轉載或者使用。任何商用行為,請傳送郵件至tech@meituan.com申請授權。

相關文章