Przed skorzystaniem z usługi należy zapoznać się z informacjami wstępnymi zawierającymi opis kroków umożliwiających dostęp do interfejsu programistycznego CLARIN-PL.
Hatespeech umożliwia wykrywanie mowy nienawiści dla wybranych tekstów.
Wymaga wyboru spośród dwóch dostępnych modeli:
Hatespeech można uruchomić:
Hatespeech można wywołać w systemie Windows za pomocą następującego zapytania LPMN: ['any2txt',{'hatespeech':{'model_type':'conformity','user_annotations':[0,0,0,0,0,0]}}]
[['any2txt',{'hatespeech':{'model_type':'conformity','user_annotations':[0,1,0,0,1,0]}}]]
- dane wejściowe w postaci folderu skompresowanego (.zip)model_type
- opcja wymagana definiująca wybór modelu:
baseline
- ogólny, niespersonalizowanyconformity
- spersonalizowany. Umożliwia dostosowanie profilu poprzez wskazanie wartości dla user_annotations
. Możliwy jest też wybór spośród profili predefiniowanych:
[0,0,0,0,0,0]
- niskowrażliwy[0,1,0,0,1,0]
- średniowrażliwy[1,1,1,1,1,1]
- obrażalski Uwaga!
Serwis CLARIN-PL dla modelu spersonalizowanego oferuje wybór tylko pomiędzy predefiniowanymi profilami. Konfiguracja wartości dla user_annotations
możliwa jest m. in. w usłudze LPMN Client.
Plik tekstowy.
inoffensive
, offensive
values
type
:pie
W Colabie: Hatespeech - wykrywanie mowy nienawiści
Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko (2021) "Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection", Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, Volume 1: Long Papers.
(C) CLARIN-PL