Pobierz plik Scenariusz: Stereotypy
(PDF, 497 KB)
Czas realizacji scenariusza
Wariant podstawowy: 2 godziny lekcyjne
Wariant rozszerzony: 4 godziny lekcyjne i więcej
Dowiedz się czym jest FAKE NEWS i zjawisko dezinformacji?
Dowiedz się więcej na temat Twittera – platformy, na której będziemy pracować
TEMAT SCENARIUSZA: NEGATYWNE STEREOTYPY DOTYCZĄCE MIGRANTÓW Z UKRAINY W POLSCECel ogólnyPerspektywa pracy w dłuższym czasie – przygotowanie uczniów do krytycznej oceny informacji rozpowszechnianych w internecie oraz wykrywania negatywnych stereotypów i dezinformacji; praktyczne zaznajomienie uczniów z technologiami informatycznymi umożliwiającymi wykrywanie negatywnych stereotypów i dezinformacji Cele operacyjneUczeń/Uczennica: Potrafi zdefiniować pojęcia negatywnych stereotypów, fake news i dezinformacji Zna charakterystyczne cechy negatywnych stereotypów, fake news i dezinformacji Poznaje przykłady dezinformacji i sam(a) potrafi ocenić wiarygodność informacji Ćwiczy umiejętność rozpoznawania negatywnych stereotypów i dezinformacji Zna pojęcia uczenia maszynowego i sieci neuronowych, wie jak można je wykorzystać do wykrywania dezinformacji Wie, jak z wykorzystaniem przygotowanego modelu i narzędzi informatycznych testować skuteczność wykrywania negatywnych stereotypów i dezinformacji oraz jak sprawdzać wiarygodność nowych informacji Dostrzega korzyści z szybkiego wykrywania negatywnych stereotypów i dezinformacji MetodyMetoda słowna – wykład, dyskusja, praca z tekstem Metoda oglądowa – demonstracja działania sieci neuronowej, wykrywanie negatywnych stereotypów i fake news Metoda laboratoryjna – zajęcia praktyczne Środki dydaktyczneForma zbiorowa – nauczyciel pracuje z całą klasą. Dyskusja, wymiana opinii. Forma grupowa – zadanie klasyfikacji informacji w grupach, wymiana opinii w grupach. Wykorzystanie narzędzi informatycznych: FN MINER – narzędzie do klasyfikacji danych i pobierania nowych danych; FN WARRIOR – skrypt do wykrywania niebezpiecznych treści na Twitterze. |
Przebieg zajęć
Prezentacja zagadnienia. STEREOTYPY: RELACJE POLSKO – UKRAIŃSKIE
Od rozpoczęcia wojny na Ukrainie do Polski przybyło prawie 4 miliony uchodźców. Nagła i ogromna fala migracji jest wyzwaniem dla każdego narodu. Ukraińcy próbują integrować się z polskim społeczeństwem, a Polacy podziwiają odważną walkę Ukraińców i porzucają stereotypy na temat swoich wschodnich sąsiadów. Niemniej jednak, pojawiają się manipulacje językowe i wartościowanie Ukraińców w dezinformujących przekazach, które mogą nasilać nastroje antyukraińskie w Polsce. Czy możemy wykryć funkcjonujące stereotypy, szczególnie te negatywne?
Przykładowo, w dezinformacji wycelowanej przeciwko uchodźcom pojawia się określenie „nachodźcy”, będące połączeniem wyrazów „uchodźca” i „najazd”. Użycie tego zwrotu sugeruje negatywne nastawienie osób przyjeżdżających do naszego kraju w stosunku do Polski i Polaków, które chcą nas „najechać”, „zaatakować”. Wykorzystanie wyrazu „nachodźcy” w komunikacie dotyczącym uchodźców z Ukrainy negatywnie wartościuje te osoby i nastawia odbiorców przeciwko nim, a także zniechęca do udzielenia im wsparcia.
.
ETAP I: DYSKUSJA – PODSTAWOWE INFORMACJE O NEGATYWNYCH STEREOTYPACH DOTYCZĄCYCH UCHODŹCÓW Z UKRAINY W POLSCE
W dezinformujących przekazach na temat Ukraińców są oni często określani jako „Ukry”, „Ukrowie” lub „Ukraińce”. Wyrazy te bywają pisane małą literą, w celu dodatkowego zwrócenia uwagi na brak szacunku wobec osób nazywanych w ten sposób. Słowo »Ukraińce « wskazuje na nieosobowy charakter desygnatu, pełni funkcję deprecjatywną, tak jak np. »te ucznie«, »studenty « czy »profesory«”. Wyraz „Ukry” jest skrótem, ale jego użycie nie wynika wyłącznie z ekonomii języka, lecz stosowany jest jako określenie deprecjonujące.
Środki językowe stosowane w dezinformujących przekazach, mające służyć wzbudzeniu w odbiorcach emocji, w zdecydowanej większości starają się wywołać negatywne odczucia względem uchodźców lub wszystkich Ukraińców. Bazują one często na poczuciu niesprawiedliwości, chęci odwetu za zbrodnie dokonane w przeszłości, a także na podstawowych uczuciach smutku, złości, zagrożenia i niepokoju.
Jednym z najsilniejszych nośników emocji w języku są wulgaryzmy. Mają one na celu przede wszystkim negatywne nastawienie odbiorców względem opisywanego zjawiska, osób, wydarzeń. Poprzez wzbudzanie silnych emocji oddziałują niekiedy mocniej niż sama istota przekazu, przez co sposób wypowiedzi zyskuje większe znaczenie niż sama wiadomość przekazana za jego pomocą. Bywa, że użycie licznych wulgaryzmów świadczy po prostu o ubogości językowej nadawcy wypowiedzi, ich obecność bowiem uwydatnia to, że nie potrafi on określić pewnych zjawisk inaczej niż właśnie poprzez wulgaryzmy.
Innym wyrazem negatywnie wartościującym nie tylko uchodźców, ale wszystkich Ukraińców jest określenie „banderowcy”. Sformułowanie to w oczywisty sposób nawiązuje do nazwiska Stepana Bandery, jednego z najbardziej znanych dowódców Organizacji Ukraińskich Nacjonalistów (OUN), odpowiedzialnej za zbrodnię na ludności polskiej w czasie II wojny światowej. Określeniem „banderowcy” bywają nazywani wszyscy obywatele ukraińscy, niezależnie od ich poglądów politycznych czy świadomości historycznej. Warto również zwrócić uwagę na popularność wyszukiwania frazy „banderowcy” w wyszukiwarce Google.
Dyskusja
- Czy uważacie, że negatywne stereotypy dotyczące uchodźców z Ukrainy w Polsce są powszechnym zjawiskiem, czy marginesem?
- Czy znacie przykłady szczególnie widocznych negatywnych stereotypów dotyczących uchodźców z Ukrainy w Polsce
- Jakie mogą być powody rozpowszechniania tego typu stereotypów w Internecie?
Źródła:
- https://300gospodarka.pl/news/uchodzcy-z-ukrainy-w-polsce-liczba
- https://centrumwielokulturowe.waw.pl/uchodzcy-z-ukrainy-w-polsce-raport-specjalny/
- https://belsat.eu/pl/news/30-03-2022-w-polsce-znikaja-stereotypy-na-temat-ukraincow-rozmowa-z-lektorka-jezyka-polskiego-jako-obcego/
ETAP II: KLASYFIKACJA TWEETÓW
Pracę nad przygotowaniem własnej sieci neuronowej służącej rozpoznawaniu dezinformujących lub przedstawiających negatywne stereotypy rozpoczynamy od klasyfikowania tweetów. Naszym celem jest wytrenowanie modelu, tj. nauczenie sztucznej inteligencji rozpoznawania w zbiorze tekstów takich treści, które, zgodnie z założeniami tego scenariusza, możemy uznać za negatywne stereotypy dotyczące uchodźców z Ukrainy w Polsce. Proces ten nazywamy uczeniem maszynowym.
Dowiedz się więcej sieciach neuronowych i ich trenowaniu
Pamiętajmy, że prace możemy rozpocząć po wypełnieniu formularza dostępnego na stronie głównej CollMind i otrzymaniu linka do dedykowanej dla nas instancji programu FN MINER.
W przygotowanym na potrzeby projektu zbiorze danych mamy zgromadzone tweety (tj. wiadomości publikowane przez użytkowników Twittera), które odnosiły się do zagadnień związanych ze stereotypami dotyczącymi uchodźców z Ukrainy. Są wśród nich zarówno “negatywne stereotypy”, jak i informacje nieposiadające negatywnego wydźwięku. Zadaniem grupy będzie zapoznanie się z treściami i ich klasyfikacja, tj. oznaczanie jako “stereotyp” lub “brak stereotypu”.
Na podstawie przyswojonych wcześniej informacji dotyczących tematu scenariusza grupa powinna ustalić, co będziemy traktowali jako “stereotyp”, a co jako “brak stereotypu”.
Czy wszyscy zgadzają się co do istotnych faktów, czy może jakieś osoby mają inne zdanie? Nawet jeśli mamy różne opinie na temat negatywnych stereotypów, przy klasyfikacji treści powinniśmy przyjąć ten sam model oceny.
Należy pamiętać, że oprócz oczywistych przypadków typu STEREOTYP / BRAK STEREOTYPU mogą pojawić się nieco trudniejsze do klasyfikacji przypadki sarkazmu i ironii, treści trudne do sklasyfikowania lub neutralne.
Zobacz tutorial: jak trenować sieć neuronową z wykorzystaniem FN MINER
Przeprowadzone w ramach zajęć trenowanie modelu ma dwa równorzędne cele:
- Po pierwsze: klasyfikujemy treści, aby samodzielnie przygotować własne oprogramowanie do wykrywania dezinformacji;
- Po drugie: przeglądając prawdziwe wypowiedzi użytkowników Twittera zgromadzone w bazie dowiadujemy się, jak faktycznie wyglądają rozmowy online na temat związany z relacjami polsko – ukraińskimi. Dzięki temu jesteśmy w stanie lepiej zrozumieć, na czym polega to zjawisko, wyrobić sobie własną opinię, a jeśli chcemy – samodzielnie poszerzać zbiór danych i budować coraz lepszy model rozpoznawania negatywnych stereotypów.
Proponujemy, aby pracę nad klasyfikacją prowadzić w kilku rundach. W ramach każdej z nich uczestnicy będą przeglądali treści na swoich ekranach (jeśli pracują na kilku komputerach naraz, każda z osób zobaczy inne, losowo dobrane tweety do klasyfikacji). W razie wątpliwości uczestnicy mogą kliknąć w link prowadzący do oryginalnego tweeta, aby zobaczyć w jakim kontekście pojawiła się dana wypowiedź.
Jeżeli projekt realizowany jest w trakcie zajęć stacjonarnych, uczestnicy mogą pracować parami. Stwarza to możliwość prowadzenia na bieżąco wymiany myśli dotyczącej danego tweeta: do jakiej kategorii go zaliczyć.
Po ok. 20 minutach pracy proponujemy zrobić przerwę, przeznaczoną na dyskusję na temat spostrzeżeń, wątpliwości i wniosków wynikających z klasyfikacji. Pozwoli to na wymianę myśli i doprecyzowanie wspólnych zasad. Pamiętajmy, że model będzie tylko wtedy dobrze wytrenowany, gdy klasyfikacja będzie spójna.
W ramach poszerzania wspólnej wiedzy możemy również przeglądać już sklasyfikowane treści i w razie wątpliwości oceniać je ponownie (zakładki “Sklasyfikowane jako STEREOTYP” oraz “Sklasyfikowane jako BRAK STEREOTYPU”) oraz najczęściej występujące słowa.
Po dyskusji i wymianie opinii przystępujemy do kolejnych rund oceny, które wykonujemy aż do zakończenia klasyfikacji wszystkich tweetów. Możemy wtedy dokonać eksportu wytrenowanego modelu (zakładka “Eksportuj”).
Wariant rozszerzony
Jeżeli na nasze zajęcia przewidzieliśmy więcej godzin, lub planujemy realizację cyklu zajęć, możemy rozbudowywać bazę tweetów do klasyfikacji, pobierając nowe treści w czasie rzeczywistym. W tym celu należy skorzystać z zakładki “Pobieranie danych z Twittera”. Szczegóły techniczne przedstawiono w Tutorialu FN MINER. Nowe tweety zapisane w bazie mogą być klasyfikowane aż do osiągnięcia zadowalającej wielkości (im więcej danych w modelu, tym lepsze jego działanie).
ETAP III: IMPORTOWANIE WYTRENOWANEGO MODELU I SPRAWDZANIE JEGO DZIAŁANIA
Pobrane przez nas pliki zawierające wytrenowany model powinny zostać zaimportowane do programu FN WARRIOR działającego w środowisku Orange Data Mining.
Nie jest konieczne, aby każdy uczestnik instalował na swoim komputerze FN WARRIOR i Orange Data Mining. Wystarczy, że zrobi to lider projektu (najlepiej z wyprzedzeniem). Oczywiście, jeżeli jest realizowany wariant rozszerzony zajęć, instalacji może być więcej i każdy uczestnik może dokonywać własnych prób wykrywania negatywnych stereotypów.
Zobacz tutorial: jak używać FN WARRIOR
Po wgraniu wytrenowanego modelu i przeprowadzeniu testów sprawności jego działania możemy przystąpić do wykrywania w bieżącej komunikacji na Twitterze negatywnych STEREOTYPÓW dotyczących uchodźców ukraińskich w Polsce. Oczywiście nigdy nie jesteśmy pewni, jakie treści faktycznie pobierzemy, więc powinniśmy ostrzec wrażliwych odbiorców, że mogą być narażeni na przeglądanie treści niecenzuralnych lub kontrowersyjnych. Mimo tego jesteśmy przekonani, że sprawdzenie działania naszego modelu będzie bardzo ciekawym doświadczeniem.
Sposób pobierania treści z Twittera przedstawiono w ww. Tutorialu, natomiast dobór słów kluczowych jest zależny od realizowanego scenariusza i naszej wyobraźni. Proponujemy, aby było to po prostu hasło “Ukraińcy” i zawężenie do języka polskiego ale zachęcamy również do wypróbowania innych wariantów (np. kombinacje: Ukraińcy w Polsce, Uchodźcy ukraińscy, uchodźcy z Ukrainy itp.) Zostaną pobrane tweety zawierające wybrane słowa kluczowe opublikowane w ciągu ostatnich 7 dni. Przykładową konfigurację wyszukiwania zaprezentowano poniżej:
W wyniku wyszukiwania otrzymamy tabelę ze STEREOTYPAMI wykrytymi przez poszczególne algorytmy.
Jeśli uznamy, że dokonaliśmy ważnego odkrycia, tzn. wykryliśmy szczególnie ważny przykład dezinformacji, możemy zapisać wyniki w pliku (np. xlsx lub csv, aby dało się je odczytać za pomocą popularnych arkuszów kalkulacyjnych, takich jak MS Excel).
Możemy również podzielić się swoim odkryciem w społeczności CollMind.
Wariant rozszerzony. ETAP IV: PREZENTACJA WYNIKÓW W SPOŁECZNOŚCI COLLMIND
Strona internetowa https://collmind.pl/spolecznosc-collmind.php umożliwia dołączenie do społeczności CollMind i podzielenie się rezultatami swojej pracy. Można to zrobić na dwa sposoby:
1. Formularz Rezultaty klasyfikowania przez naszą grupę umożliwia podzielenie się przygotowanym przez Was modelem sklasyfikowanych danych. Proponujemy umieszczenie w polu „opis” informacji o tym, co jest unikalne w Waszym projekcie, jakiego typu dane wykorzystaliście do stworzenia swojego modelu i co w procesie trenowania było wyjątkowego.
2. Natomiast formularz Wykryte na Twitterze niebezpieczne treści służy do publikacji istotnych przykładów dezinformacji wykrytych dzięki Waszemu modelowi. Proponujemy, by w polu „opis” streścić, co szczególnego udało Wam się wykryć i dlaczego uważacie, że Wasze odkrycie jest ważne. Dodatkowo na stronie zostanie automatycznie opublikowane kilka pierwszych pozycji z przesłanego przez Was pliku.