Pobierz plik Scenariusz: Agresja
(PDF, 493 KB)
Czas realizacji scenariusza
Wariant podstawowy: 2 godziny lekcyjne
Wariant rozszerzony: 4 godziny lekcyjne i więcej
Dowiedz się czym jest FAKE NEWS i zjawisko dezinformacji?
Dowiedz się więcej na temat Twittera – platformy, na której będziemy pracować
TEMAT SCENRIUSZA: AGRESJA W INTERNECIE I NETYKIETACel ogólnyPerspektywa pracy w dłuższym czasie – przygotowanie uczniów do krytycznej oceny informacji rozpowszechnianych w internecie oraz wykrywania agresji i dezinformacji; praktyczne zaznajomienie uczniów z technologiami informatycznymi umożliwiającymi wykrywanie agresji i dezinformacji Cele operacyjneUczeń/Uczennica: Potrafi zdefiniować pojęcia agresji w internecie i dezinformacji Zna charakterystyczne cechy agresji w internecie i dezinformacji Poznaje przykłady agresji w internecie i sam(a) potrafi ocenić treści pod tym kątem Ćwiczy umiejętność rozpoznawania agresji w internecie Zna pojęcia uczenia maszynowego i sieci neuronowych, wie jak można je wykorzystać do wykrywania niebezpiecznych treści Wie, jak z wykorzystaniem przygotowanego modelu i narzędzi informatycznych testować skuteczność wykrywania agresji w internecie Dostrzega korzyści z szybkiego wykrywania agresji w internecie MetodyMetoda słowna – wykład, dyskusja, praca z tekstem Metoda oglądowa – demonstracja działania sieci neuronowej, wykrywanie niebezpiecznych treści Metoda laboratoryjna – zajęcia praktyczne Środki dydaktyczneForma zbiorowa – nauczyciel pracuje z całą klasą. Dyskusja, wymiana opinii. Forma grupowa – zadanie klasyfikacji informacji w grupach, wymiana opinii w grupach. Wykorzystanie narzędzi informatycznych: FN MINER – narzędzie do klasyfikacji danych i pobierania nowych danych; FN WARRIOR – skrypt do wykrywania dezinformacji na Twitterze. |
Przebieg zajęć
Prezentacja zagadnienia. AGRESJA I NETYKIETA W INTERNECIE
Agresja i szerzenie nienawiści jest obraźliwym rodzajem komunikacji, który wyraża pogardę dla drugiego człowieka za pomocą stereotypów. Zjawiska „hejtu” i tzw. „patostreaming” uzmysławiają nam, że coraz więcej aktów nienawiści ma miejsce w Internecie. W ostatnich latach przejawy agresji wśród młodzieży nie tylko przybierają coraz bardziej drastyczne formy, nie tylko obniża się wiek sprawców, ale i wzrasta liczba agresywnych zachowań, w tym agresji werbalnej polegającej na napaści słownej, tj. poprzez obrzucanie wyzwiskami, obelgi, grożenie. Szczególnie narażone na niebezpieczeństwa są dzieci i młodzież w wieku 9-17 lat, a więc w okresie dorastania: okresie, kiedy kształtuje się osobowość. Obecnie przestrzenią, która w dużym stopniu wpływa na sposób komunikacji młodych ludzi jest Internet.
Netykieta natomiast to zasady zachowania, które odpowiadają na pytanie: jak zachowywać się w internecie. Zasady netykiety wynikają wprost z ogólnych zasad przyzwoitości lub są odzwierciedleniem niemożliwych do ujęcia w standardy ograniczeń technicznych wynikających z natury danej usługi Internetu. Jej celem są pozytywne relacje użytkowników w internecie. |
Przestrzenią, która jest szczególnie narażona na komunikaty agresywne, jest społeczność kibiców sportowych. Jak czytamy w pracy T. Janusa „Zjawisko agresji w widowiskach sportowych”: Agresja w sporcie – zarówno wśród sportowców, jak i kibiców – nie jest jednak problemem tylko ostatnich lat. Już starożytne obiekty sportowe były miejscami, w których dochodziło do bliźniaczo podobnych zachowań, jak na dzisiejszych stadionach, halach czy lodowiskach. W 523 r. n.e. rozruchy wywołane przez niezadowolonych kibiców, prawie doprowadziły do obalenia cesarza Justyniana. Starożytni kibice zrzeszali się wokół jeźdźców w tzw. fakcje i poziomem fanatyzmu nie odstawali od współczesnych bywalców stadionów. Płonące ławy, bójki, interweniujące służby porządkowe – taki widok nie należał na starożytnych imprezach sportowych do rzadkości.
ETAP I: DYSKUSJA – PODSTAWOWE INFORMACJE O AGRESJI W INTERNECIE
Mowa nienawiści i agresja w Internecie stały się poważnym problemem. Badanie „EU Kids online 2018 Polska”, przeprowadzono roku na reprezentatywnej grupie dzieci i młodzieży w wieku 9-17 lat, 1249 uczniach z 90 szkół, pod kierunkiem prof. UAM dr hab. J. Pyżalskiego. Badanie wykazało, że ponad 45% nastolatków spotkało się w Internecie z mową nienawiści. O szczególnej potrzebie przeciwdziałania agresji i mowie nienawiści w internecie wypowiadał się niedawno Rzecznik Praw Obywatelskich A.Bodnar: Patostreaming, mowa nienawiści i hejt to niektóre ze zjawisk, którym poświęcam szczególną uwagę. Musimy rozmawiać z młodymi o wartościach i uczyć się reagować na przemoc i patologie w internecie. Z badania wynika, że cyberprzemoc jest silnie powiązana z agresją w świecie rzeczywistym. Prawie 68% tzw. częstych sprawców przemocy tradycyjnej równie często sięgało po przemoc elektroniczną. Podobnie wygląda sytuacja ofiar. Duże znaczenia ma również fakt, iż nie wszyscy rodzice przykładają należytą uwagę do spraw dotyczących bezpieczeństwa swoich dzieci w Internecie. Niejednokrotnie ich wiedza jest niewystarczająca, a brak czasu nie pozwala w pełni zabezpieczyć dziecko przed ewentualnymi konsekwencjami.
W realizowanym scenariuszu będziemy starali się wykrywać zachowania agresywne w środowisku kibiców sportowych, które jest szczególnie narażone na upowszechnienie i akceptację dla tego typu zachowań. W sporcie postawom agresywnym sprzyja dynamika i intensywność zachowań, wysoka sprawność fizyczna, kondycja fizyczna i nadmiar stymulacji, który trzeba rozładować. Zachowanie agresywne w sporcie ma być zgodne z pewnymi normami. Agresja sportowa może być traktowana w sposób pozytywny, jako wyraz zaangażowania zawodników. Te same emocje udzielają się również widzom wydarzeń sportowych, a szczególnie osobom silnie emocjonalnie związanym z drużyną, której kibicują. Agresja wśród kibiców w określonych warunkach stwarza zagrożenia dla bezpieczeństwa uczestników imprezy sportowej, a w przypadku, którym będziemy zajmowali się w tym scenariuszu, może stwarzać zagrożenie w komunikacji internetowej.
Obserwowana u pewnych grup młodzieży skłonność do nieustannego publikowania treści w sieci nierzadko łączy się ze stałym poszukiwaniem aprobaty wśród innych, co może prowadzić do utraty wiary we własne możliwości. Reakcje ludzi na temat własnej osoby mogą doprowadzić do niepewności odnośnie ich własnej wartości. Obawa o to jak zostaniemy odebrani wpływa na to, że zaczynamy być wobec siebie i swojego wyglądu jeszcze bardziej krytyczni.
Żądne wielkich emocji i niezapomnianych przeżyć tłumy zapełniają więc obiekty sportowe we wszystkich niemal zakątkach świata. Na trybunach rodzi się poczucie więzi między widzami, ale równocześnie może powstać subkultura kibicowska, która ucieka się do agresywnych zachowań. Podobne zachowania przenoszą się do Internetu, co może prowadzić do upowszechnienia tam agresji i nienawiści. W tym scenariuszu będziemy starali się wykrywać agresywne zachowania.
Dyskusja
- Czy uważacie, że agresja w Internecie jest powszechnym zjawiskiem, czy marginesem?
- Czy znacie przykłady szczególnie dotkliwych agresywnych zachowań w Internecie?
- Jakie mogą być powody rozpowszechniania agresji w Internecie?
Źródła:
- Zjawisko agresji w widowiskach sportowych. Charakterystyka i ocena. (ceon.pl)
- https://ose.gov.pl/aktualnosci/wpis/agresja-w-internecie-podcast-o-cyberbezpieczenstwie
- https://www.heuristic.pl/blog/internet/Cyber-przemoc-czyli-agresja-w-Internecie-skad-sie-bierze;211.html
- https://repozytorium.amu.edu.pl/bitstream/10593/5379/1/agresja_elektroniczna_dzieci_i_mlodziezy.pdf
ETAP II: KLASYFIKACJA TWEETÓW
Pracę nad przygotowaniem własnej sieci neuronowej służącej rozpoznawaniu treści rozpoczynamy od klasyfikowania tweetów. Naszym celem jest wytrenowanie modelu, tj. nauczenie sztucznej inteligencji rozpoznawania w zbiorze tekstów takich treści, które, zgodnie z założeniami tego scenariusza, możemy uznać za komunikaty agresywne. Proces ten nazywamy uczeniem maszynowym.
Dowiedz się więcej sieciach neuronowych i ich trenowaniu
Pamiętajmy, że prace możemy rozpocząć po wypełnieniu formularza dostępnego na stronie głównej CollMind i otrzymaniu linka do dedykowanej dla nas instancji programu FN MINER.
W przygotowanym na potrzeby projektu zbiorze danych mamy zgromadzone tweety (tj. wiadomości publikowane przez użytkowników Twittera), które odnosiły się do zagadnień związanych z agresją wśród kibiców sportowych. Są wśród nich zarówno treści agresywne, jak i informacje nieposiadające tego typu wydźwięku. Zadaniem grupy będzie zapoznanie się z treściami i ich klasyfikacja, tj. oznaczanie jako “agresywny” lub “nieagresywny”.
Na podstawie przyswojonych wcześniej informacji dotyczących tematu scenariusza grupa powinna ustalić, co będziemy traktowali jako przejaw agresji, a co jako komunikat bez treści agresywnych.
Czy wszyscy zgadzają się co do istotnych faktów, czy może jakieś osoby mają inne zdanie? Nawet jeśli mamy różne opinie na temat agresji w Internecie, przy klasyfikacji treści powinniśmy przyjąć ten sam model oceny.
Należy pamiętać, że oprócz oczywistych przypadków typu AGRESJA / BRAK AGRESJI mogą pojawić się nieco trudniejsze do klasyfikacji przypadki sarkazmu i ironii, treści trudne do sklasyfikowania lub neutralne.
Zobacz tutorial: jak trenować sieć neuronową z wykorzystaniem FN MINER
Przeprowadzone w ramach zajęć trenowanie modelu ma dwa równorzędne cele:
- Po pierwsze: klasyfikujemy treści, aby samodzielnie przygotować własne oprogramowanie do wykrywania agresji;
- Po drugie: przeglądając prawdziwe wypowiedzi użytkowników Twittera zgromadzone w bazie dowiadujemy się, jak faktycznie wyglądają rozmowy online na tematy związane z kibicowaniem drużynom sportowym. Dzięki temu jesteśmy w stanie lepiej zrozumieć, na czym polega to zjawisko, wyrobić sobie własną opinię, a jeśli chcemy – samodzielnie poszerzać zbiór danych i budować coraz lepszy model rozpoznawania komunikatów agresywnych.
Proponujemy, aby pracę nad klasyfikacją prowadzić w kilku rundach. W ramach każdej z nich uczestnicy będą przeglądali treści na swoich ekranach (jeśli pracują na kilku komputerach naraz, każda z osób zobaczy inne, losowo dobrane tweety do klasyfikacji). W razie wątpliwości uczestnicy mogą kliknąć w link prowadzący do oryginalnego tweeta, aby zobaczyć w jakim kontekście pojawiła się dana wypowiedź.
Jeżeli projekt realizowany jest w trakcie zajęć stacjonarnych, uczestnicy mogą pracować parami. Stwarza to możliwość prowadzonej na bieżąco wymiany myśli dotyczącej danego tweeta: do jakiej kategorii go zaliczyć.
Po ok. 20 minutach pracy proponujemy zrobić przerwę, przeznaczoną na dyskusję na temat spostrzeżeń, wątpliwości i wniosków wynikających z klasyfikacji. Pozwoli to na wymianę myśli i doprecyzowanie wspólnych zasad. Pamiętajmy, że model będzie tylko wtedy dobrze wytrenowany, gdy klasyfikacja będzie spójna.
W ramach poszerzania wspólnej wiedzy możemy również przeglądać już sklasyfikowane treści i w razie wątpliwości oceniać je ponownie (zakładki “Sklasyfikowane jako AGRESJA” oraz “Sklasyfikowane jako BRAK AGRESJI”) oraz najczęściej występujące słowa.
Po dyskusji i wymianie opinii przystępujemy do kolejnych rund oceny, które wykonujemy aż do zakończenia klasyfikacji wszystkich tweetów. Możemy wtedy dokonać eksportu wytrenowanego modelu (zakładka “Eksportuj”).
Wariant rozszerzony
Jeżeli na nasze zajęcia przewidzieliśmy więcej godzin, lub planujemy realizację cyklu zajęć, możemy rozbudowywać bazę tweetów do klasyfikacji, pobierając nowe treści w czasie rzeczywistym. W tym celu należy skorzystać z zakładki “Pobieranie danych z Twittera”. Szczegóły techniczne przedstawiono w Tutorialu FN MINER. Nowe tweety zapisane w bazie mogą być klasyfikowane aż do osiągnięcia zadowalającej wielkości (im więcej danych w modelu, tym lepsze jego działanie).
ETAP III: IMPORTOWANIE WYTRENOWANEGO MODELU I SPRAWDZANIE JEGO DZIAŁANIA
Pobrane przez nas pliki zawierające wytrenowany model powinny zostać zaimportowane do programu FN WARRIOR działającego w środowisku Orange Data Mining.
Nie jest konieczne, aby każdy uczestnik instalował na swoim komputerze FN WARRIOR i Orange Data Mining. Wystarczy, że zrobi to lider projektu (najlepiej z wyprzedzeniem). Oczywiście, jeżeli jest realizowany wariant rozszerzony zajęć, instalacji może być więcej i każdy uczestnik może dokonywać własnych prób wykrywania agresywnych treści.
.
Zobacz tutorial: jak używać FN WARRIOR
Po wgraniu wytrenowanego modelu i przeprowadzeniu testów sprawności jego działania możemy przystąpić do wykrywania w bieżącej komunikacji na Twitterze komunikatów agresywnych. Oczywiście nigdy nie jesteśmy pewni, jakie treści faktycznie pobierzemy, więc powinniśmy ostrzec wrażliwych odbiorców, że mogą być narażeni na przeglądanie treści niecenzuralnych lub kontrowersyjnych. Mimo tego jesteśmy przekonani, że sprawdzenie działania naszego modelu będzie bardzo ciekawym doświadczeniem.
Sposób pobierania treści z Twittera przedstawiono w ww. Tutorialu, natomiast dobór słów kluczowych jest zależny od realizowanego scenariusza i naszej wyobraźni. Proponujemy, aby były to nazwy popularnych klubów sportowych i zawężenie do języka polskiego ale zachęcamy również do wypróbowania innych wariantów (np. słowa „Kibice”, „Ultras”, „Hooligans” itp.) Zostaną pobrane tweety zawierające wybrane słowa kluczowe opublikowane w ciągu ostatnich 7 dni. Przykładową konfigurację wyszukiwania zaprezentowano poniżej:
W wyniku wyszukiwania otrzymamy tabelę z treściami związanymi z kibicowaniem, wykrytymi przez poszczególne algorytmy.
Jeśli uznamy, że dokonaliśmy ważnego odkrycia, tzn. wykryliśmy szczególnie ważny przykład agresji, możemy zapisać wyniki w pliku (np. xlsx lub csv, aby dało się je odczytać za pomocą popularnych arkuszów kalkulacyjnych, takich jak MS Excel).
Możemy również podzielić się swoim odkryciem w społeczności CollMind.
Wariant rozszerzony. ETAP IV: PREZENTACJA WYNIKÓW W SPOŁECZNOŚCI COLLMIND
Strona internetowa https://collmind.pl/spolecznosc-collmind.php umożliwia dołączenie do społeczności CollMind i podzielenie się rezultatami swojej pracy. Można to zrobić na dwa sposoby:
1. Formularz Rezultaty klasyfikowania przez naszą grupę umożliwia podzielenie się przygotowanym przez Was modelem sklasyfikowanych danych. Proponujemy umieszczenie w polu „opis” informacji o tym, co jest unikalne w Waszym projekcie, jakiego typu dane wykorzystaliście do stworzenia swojego modelu i co w procesie trenowania było wyjątkowego.
2. Natomiast formularz Wykryte na Twitterze niebezpieczne treści służy do publikacji istotnych przykładów dezinformacji wykrytych dzięki Waszemu modelowi. Proponujemy, by w polu „opis” streścić, co szczególnego udało Wam się wykryć i dlaczego uważacie, że Wasze odkrycie jest ważne. Dodatkowo na stronie zostanie automatycznie opublikowane kilka pierwszych pozycji z przesłanego przez Was pliku.