Przed skorzystaniem z usługi należy zapoznać się z informacjami wstępnymi zawierającymi opis kroków umożliwiających dostęp do interfejsu programistycznego CLARIN-PL.
Hatespeech umożliwia wykrywanie mowy nienawiści dla wybranych tekstów.
Wymaga wyboru spośród dwóch dostępnych modeli:
Hatespeech można uruchomić:
Hatespeech można wywołać w systemie Windows za pomocą następującego zapytania LPMN: ['any2txt',{'hatespeech':{'model_type':'conformity','user_annotations':[0,0,0,0,0,0]}}].
[['any2txt',{'hatespeech':{'model_type':'conformity','user_annotations':[0,1,0,0,1,0]}}]] - dane wejściowe w postaci folderu skompresowanego (.zip)model_type - opcja wymagana definiująca wybór modelu:
baseline - ogólny, niespersonalizowanyconformity - spersonalizowany. Umożliwia dostosowanie profilu poprzez wskazanie wartości dla user_annotations. Możliwy jest też wybór spośród profili predefiniowanych:
[0,0,0,0,0,0] - niskowrażliwy[0,1,0,0,1,0] - średniowrażliwy[1,1,1,1,1,1] - obrażalski Uwaga!
Serwis CLARIN-PL dla modelu spersonalizowanego oferuje wybór tylko pomiędzy predefiniowanymi profilami. Konfiguracja wartości dla user_annotations możliwa jest m. in. w usłudze LPMN Client.
Plik tekstowy.
inoffensive, offensivevaluestype:pieW Colabie: Hatespeech - wykrywanie mowy nienawiści
Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko (2021) "Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection", Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, Volume 1: Long Papers.
(C) CLARIN-PL