Statistical Significance Testing for Natural Language Processing
eBook - PDF

Statistical Significance Testing for Natural Language Processing

Rotem Dror,Lotem Peled-Cohen,Segev Shlomov,Roi Reichart

  1. English
  2. PDF
  3. Disponible sur iOS et Android
eBook - PDF

Statistical Significance Testing for Natural Language Processing

Rotem Dror,Lotem Peled-Cohen,Segev Shlomov,Roi Reichart

DĂ©tails du livre
Table des matiĂšres
Citations

À propos de ce livre

Data-driven experimental analysis has become the main evaluation tool of Natural Language Processing (NLP) algorithms. In fact, in the last decade, it has become rare to see an NLP paper, particularly one that proposes a new algorithm, that does not include extensive experimental analysis, and the number of involved tasks, datasets, domains, and languages is constantly growing. This emphasis on empirical results highlights the role of statistical significance testing in NLP research: If we, as a community, rely on empirical evaluation to validate our hypotheses and reveal the correct language processing mechanisms, we better be sure that our results are not coincidental.

The goal of this book is to discuss the main aspects of statistical significance testing in NLP. Our guiding assumption throughout the book is that the basic question NLP researchers and engineers deal with is whether or not one algorithm can be considered better than another one. This question drivesthe field forward as it allows the constant progress of developing better technology for language processing challenges. In practice, researchers and engineers would like to draw the right conclusion from a limited set of experiments, and this conclusion should hold for other experiments with datasets they do not have at their disposal or that they cannot perform due to limited time and resources. The book hence discusses the opportunities and challenges in using statistical significance testing in NLP, from the point of view of experimental comparison between two algorithms. We cover topics such as choosing an appropriate significance test for the major NLP tasks, dealing with the unique aspects of significance testing for non-convex deep neural networks, accounting for a large number of comparisons between two NLP algorithms in a statistically valid manner (multiple hypothesis testing), and, finally, the unique challenges yielded by the nature of the data and practices of the field.

Foire aux questions

Comment puis-je résilier mon abonnement ?
Il vous suffit de vous rendre dans la section compte dans paramĂštres et de cliquer sur « RĂ©silier l’abonnement ». C’est aussi simple que cela ! Une fois que vous aurez rĂ©siliĂ© votre abonnement, il restera actif pour le reste de la pĂ©riode pour laquelle vous avez payĂ©. DĂ©couvrez-en plus ici.
Puis-je / comment puis-je télécharger des livres ?
Pour le moment, tous nos livres en format ePub adaptĂ©s aux mobiles peuvent ĂȘtre tĂ©lĂ©chargĂ©s via l’application. La plupart de nos PDF sont Ă©galement disponibles en tĂ©lĂ©chargement et les autres seront tĂ©lĂ©chargeables trĂšs prochainement. DĂ©couvrez-en plus ici.
Quelle est la différence entre les formules tarifaires ?
Les deux abonnements vous donnent un accĂšs complet Ă  la bibliothĂšque et Ă  toutes les fonctionnalitĂ©s de Perlego. Les seules diffĂ©rences sont les tarifs ainsi que la pĂ©riode d’abonnement : avec l’abonnement annuel, vous Ă©conomiserez environ 30 % par rapport Ă  12 mois d’abonnement mensuel.
Qu’est-ce que Perlego ?
Nous sommes un service d’abonnement Ă  des ouvrages universitaires en ligne, oĂč vous pouvez accĂ©der Ă  toute une bibliothĂšque pour un prix infĂ©rieur Ă  celui d’un seul livre par mois. Avec plus d’un million de livres sur plus de 1 000 sujets, nous avons ce qu’il vous faut ! DĂ©couvrez-en plus ici.
Prenez-vous en charge la synthÚse vocale ?
Recherchez le symbole Écouter sur votre prochain livre pour voir si vous pouvez l’écouter. L’outil Écouter lit le texte Ă  haute voix pour vous, en surlignant le passage qui est en cours de lecture. Vous pouvez le mettre sur pause, l’accĂ©lĂ©rer ou le ralentir. DĂ©couvrez-en plus ici.
Est-ce que Statistical Significance Testing for Natural Language Processing est un PDF/ePUB en ligne ?
Oui, vous pouvez accĂ©der Ă  Statistical Significance Testing for Natural Language Processing par Rotem Dror,Lotem Peled-Cohen,Segev Shlomov,Roi Reichart en format PDF et/ou ePUB ainsi qu’à d’autres livres populaires dans Computer Science et Artificial Intelligence (AI) & Semantics. Nous disposons de plus d’un million d’ouvrages Ă  dĂ©couvrir dans notre catalogue.

Informations

Éditeur
Springer
Année
2022
ISBN
9783031021749

Table des matiĂšres

  1. Cover
  2. Copyright
  3. Title Page
  4. Content
  5. Preface
  6. Acknowledgments
  7. Introduction
  8. Statistical Hypothesis Testing
  9. Statistical Significance Tests
  10. Statistical Significance in NLP
  11. Deep Significance
  12. Replicability Analysis
  13. Open Questions and Challenges
  14. Conclusions
  15. Bibliography
  16. Authors' Biographies
Normes de citation pour Statistical Significance Testing for Natural Language Processing

APA 6 Citation

Dror, R. (2020). Statistical Significance Testing for Natural Language Processing ([edition unavailable]). Springer International Publishing. Retrieved from https://www.perlego.com/book/3706583/statistical-significance-testing-for-natural-language-processing-pdf (Original work published 2020)

Chicago Citation

Dror, Rotem. (2020) 2020. Statistical Significance Testing for Natural Language Processing. [Edition unavailable]. Springer International Publishing. https://www.perlego.com/book/3706583/statistical-significance-testing-for-natural-language-processing-pdf.

Harvard Citation

Dror, R. (2020) Statistical Significance Testing for Natural Language Processing. [edition unavailable]. Springer International Publishing. Available at: https://www.perlego.com/book/3706583/statistical-significance-testing-for-natural-language-processing-pdf (Accessed: 15 October 2022).

MLA 7 Citation

Dror, Rotem. Statistical Significance Testing for Natural Language Processing. [edition unavailable]. Springer International Publishing, 2020. Web. 15 Oct. 2022.