środa, 22 października 2025

Czy 13-latkowie sa gotowi na social media?


Zdaniem ekspertów trzynastoletnie dzieci nie są gotowe na media społecznościowe i chcą podniesienia granicy wiekowej do piętnastu lat. 


Fot. Pixabay

Ponad 80 proc. uczniów z klas I–III szkół podstawowych ogląda YouTube’a, a połowa korzysta z mediów społecznościowych. Co czwarte publikuje w nich własne treści. Zgodnie z przepisami nie powinni mieć takiej możliwości, ponieważ użytkownik social mediów musi mieć co najmniej 13 lat. To pokazuje, że weryfikacja wieku na platformach nie jest skuteczna. Co więcej, eksperci alarmują, że granica wiekowa powinna zostać podniesiona o co najmniej dwa lata.

"Jeżeli chcemy zapewnić dzieciom bezpieczeństwo, to musimy myśleć głównie o rozwiązaniach związanych z mediami społecznościowymi" – mówi Łukasz Wojtasik z Fundacji Dajemy Dzieciom Siłę. "Jest szereg zagrożeń związanych z internetem, ale przede wszystkim z mediami społecznościowymi, bo tam dzieci spędzają najwięcej czasu, często poniżej regulaminowej granicy 13. roku życia". 

Przeprowadzone w tym roku przez Fundację Dajemy Dzieciom Siłę badanie 22 tys. uczniów i uczennic pierwszych trzech klas szkoły podstawowej, którzy teoretycznie nie powinni mieć dostępu do komunikatorów i social mediów, wskazało, że ograniczenie wiekowe do 13 lat to fikcja. Według „Sprawdzianu 13+” połowa dzieci w wieku siedmiu–dziewięciu lat korzysta z mediów społecznościowych. Podobny odsetek korzysta z WhatsAppa. Co trzecie dziecko ma konto na TikToku, podobnie jak w przypadku Messengera. Ponad 60 proc. użytkowników doświadcza w tych kanałach sytuacji ocenianych jako złe lub niepokojące.

"Konstrukcja mediów społecznościowych nie jest bezpieczna zarówno dla dzieci, nastolatków, jak i dorosłych, ale my dorośli jesteśmy na o tyle lepszej pozycji, że mamy już w pełni rozwinięty mózg i mechanizmy kontroli, potrafimy krytycznie myśleć, odróżnić dobro od zła. Dzieci często takich kompetencji nie mają, szczególnie te najmłodsze przegrywają z algorytmami. Media są bardzo szybko uzależniające, szczególnie krótkie filmy. W tym kontekście mówi się o short video addiction, nowym zjawisku, polegającym właśnie na tym, że konstrukcja tych filmów, sposób ich prezentowania, nieregularne wyrzuty dopaminy w mózgu, szczególnie młodego człowieka, po prostu uzależniają. Nie mówiąc już o treści tych filmów, która często jest przemocowa, seksualna, wulgarna" – wyjaśnia Łukasz Wojtasik. 

W swojej kampanii Fundacja Dajemy Dzieciom Siłę promuje podniesienie limitu wieku korzystania z mediów społecznościowych z 13 do 15 lat. Przytacza w niej również 15 powodów, dla których jest to wskazane. Eksperci kampanii podkreślają, że intensywne korzystanie z mediów społecznościowych wiąże się z wyższym poziomem lęku, depresji, samotności i niskiej samooceny, co szczególnie dotyczy nastoletnich dziewcząt. Może także zakłócać proces budowania swojej tożsamości i rozwijania emocji. Serwisy społecznościowe i komunikatory ułatwiają kontakt z nieznajomymi, co zwiększa ryzyko przemocy rówieśniczej i  prób manipulacji: 

"To jest wykorzystywanie seksualne, szkodliwe treści, hejt i radykalizacja. To są szkodliwe wzorce urody, szkodliwe wzorce zachowań, problemy zdrowotne, depresja i tak dalej. Tych zagrożeń jest cały szereg. Naszą rolą – rodziców, dorosłych – jest ochrona dzieci przed tymi zagrożeniami, a jednocześnie oczekiwanie od dostawców usług, że tak będą te treści podawali, tak przebudują mechanikę serwisów społecznościowych, żeby nie było to środowisko zagrażające dla najmłodszych użytkowników. Jednocześnie oczekujemy też, że będą skutecznie weryfikowali wiek" – mówi ekspert FDDS.

Celem kampanii jest dotarcie do rodziców i pokazanie im skali zagrożeń, z jakimi wiąże się obecność ich dzieci w social mediów. Za tym powinna iść edukacja i przygotowywanie dzieci do użytkowania serwisów. Drugi cel to starania na rzecz legislacyjnych rozwiązań, które usankcjonują podniesienie granicy wiekowej i zmuszą platformy do skutecznego sprawdzania wieku użytkowników i blokowania tych, którzy są zbyt młodzi: 

"Funkcjonująca aktualnie granica 13. roku życia wynika z przepisów takich jak amerykańskie CAPA czy europejskie RODO. To są przepisy dotyczące ochrony danych, ale nie są wynikiem analizy wpływu mediów społecznościowych na dzieci. Konsultowaliśmy się z psychiatrami dziecięcymi, terapeutami, psychologami, praktykami i uznaliśmy, że jeżeli chodzi o umiejętność młodych ludzi do unikania zagrożeń, ich rozwój funkcji poznawczych, kontrolnych, to jest właśnie 15. rok życia" – wyjaśnia Łukasz Wojtasik. 

Jak podkreśla, nie oznacza to jednak, że po 15. roku życia dzieci są w pełni bezpieczne w mediach społecznościowych: 

"Naszym postulatem i przy okazji narzędziem dla rodziców jest lista kompetencji. Pokazujemy, jakie kompetencje muszą mieć dzieci, na jakim poziomie rozwojowym muszą się znajdować, żeby media społecznościowe były dla nich bezpieczne. Dla jednego dziecka to może być 15. rok życia, dla innego 16. i to jest w rękach rodziców, natomiast jako minimum uznajemy 15. rok życia. To się wydaje sensownym kompromisem pomiędzy potrzebą młodych ludzi dostępu do usług cyfrowych a potrzebą zapewnienia im bezpieczeństwa w środowisku cyfrowym" – wskazuje ekspert Fundacji Dajemy Dzieciom Siłę. 

Zasada „do 15. roku życia bez serwisów społecznościowych” to jedna z rekomendacji wiekowych ekspertów programu Domowe Zasady Ekranowe. Pozostałe to: „bez ekranów do trzeciego roku życia” i „bez smartfona do 12. roku życia”. Tymczasem wśród badanych siedmio–dziewięciolatków 66 proc. ma już swój smartfon. 

Na podstawie Newseria oprac. db





czwartek, 16 października 2025

Sztuczna inteligencja w pracy prawnika


Czy sztuczna inteligencja może być w przyszłości asystentem sędziego albo zastąpić jego samego? 


Fot. Pixabay

Rozwiązania sztucznej inteligencji stosowane w wymiarze sprawiedliwości zaliczane są do kategorii wysokiego ryzyka, zgodnie z unijnym rozporządzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami. Dlatego nie ma ryzyka, że sztuczna inteligencja zastąpi sędziego i będzie za niego wydawać wyroki. W przyszłości może się jednak stać jego asystentem odpowiedzialnym m.in. za analizę dowodów czy przygotowywanie treści orzeczeń. Eksperci uważają, że może to znacząco usprawnić postępowania sądowe: 

"W polskich sądach sztuczna inteligencja jest już wykorzystywana w prostych zadaniach, takich jak anonimizacja dokumentów, transkrypcja, wyszukiwanie orzeczeń czy chociażby monitorowanie i śledzenie zmian aktów prawnych. W przyszłości będzie asystentem sędziego, pomoże w prowadzeniu akt, wyszukiwaniu dowodów czy zaproponuje treść orzeczenia na podstawie podobnych spraw" mówi Sebastian Szczepański, prezes zarządu Currendy.

Podobne zastosowania widać wśród całego środowiska prawników. Jak wynika z raportu „Future Ready Lawyer 2024” opublikowanego przez Wolters Kluwer, 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z generatywnej AI przynajmniej raz w tygodniu, najczęściej do researchu, analizy i automatyzacji tworzenia dokumentów: 

"Teraz największym problemem, przed którym stoi sądownictwo, jest brak asystentów. Sędziowie mają bardzo dużo spraw, którymi się zajmują, jest duża liczba dokumentów, która jest przez nich do obrobienia. W momencie kiedy byśmy zaprzęgli do tych czynności sztuczną inteligencję, która np. prowadziłaby nam akta, analizowała dowody, proponowała podstawę prawną, to na pewno bardzo by to wpłynęło na szybkość postępowania" – uważa prezes Currendy. 

W świetle raportu „Rekomendacje w zakresie zastosowania sztucznej inteligencji w sądownictwie i prokuraturze” przygotowanego przez Grupę Roboczą ds. Sztucznej Inteligencji (Podgrupa ds. etyki i prawa) zakres zastosowania systemów AI jest bardzo szeroki. Może służyć m.in. jako wsparcie organizacji pracy sądów i prokuratury, pomoc w codziennych zadaniach sędziów, prokuratorów i innych pracowników wymiaru sprawiedliwości czy narzędzie do proponowania projektu uzasadnienia rozstrzygnięcia w konkretnej sprawie. W rekomendacjach GRAI w zakresie wdrożenia sztucznej inteligencji w sądownictwie znalazło się kilka propozycji, w tym m.in. automatyzacja przebiegu rozprawy do pisemnego protokołu, chatbot uzupełniający pracę Biura Obsługi Interesanta, system do wyszukiwania podobnych spraw czy też tłumaczenie rozprawy na żywo: 

"Sędzia bot na razie to czyste science fiction, ale mogę sobie wyobrazić pojedyncze przypadki, w których orzeczenia sądowe będą podejmowane przez sztuczną inteligencję. Mamy na przykład elektroniczne postępowanie upominawcze, prowadzone przez Sąd Rejonowy w Lublinie, gdzie tak naprawdę jest sprawdzana tylko kompletność dokumentów i zapada orzeczenie. W takich przypadkach jak najbardziej sztuczna inteligencja mogłaby się doskonale odnaleźć. Natomiast już w bardziej skomplikowanych, gdzie zapadają sprawy w sądzie rejonowym, okręgowym czy apelacyjnym, to jednak decyzja powinna należeć do człowieka" – uważa Sebastian Szczepański. 

Jak dodaje, na świecie sztuczna inteligencja w sądownictwie wykorzystywana jest częściej niż w Polsce: 

"Na przykład w Chinach stosowana jest do prowadzenia rozpraw sądowych, do analizy dokumentów, do przesłuchiwania świadków i później do proponowania treści orzeczenia. Natomiast oczywiście, ostateczny wyrok zapada z udziałem człowieka" – podkreśla ekspert. – "Sztuczna inteligencja mogłaby być dużym wsparciem dla sędziów i referendarzy sądowych, w szczególności w pisaniu uzasadnień sądowych. AI może przygotować strukturę dokumentów, przeanalizować dowody, zaproponować treść podstawy prawnej, natomiast ostateczna odpowiedzialność za treść należy oczywiście do sędziego".

Prawnicy w badaniu Wolters Kluwer jako główne wyzwania w stosowaniu GenAI wymieniają trudności z jej integracją do codziennej pracy, wiarygodność wyników oraz obawy co do poufności danych: 

"Nie powinniśmy do końca ufać sztucznej inteligencji, która jest swego rodzaju black boxem. Nie wiemy tak naprawdę, co się do końca dzieje w tym magicznym pudełku i dlaczego uzyskujemy taki wynik, a nie inny. Z pomocą przychodzi nam AI Act, który został wdrożony w 2024 roku i w tej chwili jest implementowany etapami" – mówi Sebastian Szczepański. – "Systemy sądowe zostały zaklasyfikowane jako aplikacje informatyczne wysokiego ryzyka, co oznacza, że muszą być przejrzyste i używane pod nadzorem człowieka". 

Według unijnego rozporządzenia AI Act systemy sztucznej inteligencji wysokiego ryzyka podlegają rygorystycznym obowiązkom przed wprowadzeniem ich do obrotu. Wymagają m.in. systemów oceny i ograniczenia ryzyka, wysokiej jakości zbiorów danych, odpowiednich środków nadzoru ze strony człowieka czy też wysokiego poziomu solidności, cyberbezpieczeństwa i dokładności. Zgodnie z treścią rozporządzenia wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować. Podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka.

Kwalifikacja systemów AI jako systemów wysokiego ryzyka nie powinna jednak obejmować systemów przeznaczonych do pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości. Mowa m.in. o anonimizacji lub pseudonimizacji orzeczeń sądowych, dokumentów lub danych, komunikacji między członkami personelu czy też zadaniach administracyjnych.

2 sierpnia br. zaczęły obowiązywać zapisy AI Act dotyczące wprowadzania na rynek modeli ogólnego przeznaczenia (GPAI) – to modele projektowane nie do jednego, konkretnego zastosowania, ale do wielu różnych zadań (to np. duże modele językowe czy tworzące grafiki). Każdy podmiot, który opracowuje i wprowadza do obrotu takie modele, ma obowiązek m.in. przygotowania i udostępnienia ich dokumentacji technicznej, publikacji streszczenia zbiorów danych wykorzystanych do ich trenowania czy wdrożenia środków zapewniających zgodność modeli z prawem. Dostawcy GPAI o systemowym ryzyku mają jeszcze bardziej rygorystyczne zadania, obejmujące m.in. testy bezpieczeństwa.

Na podstawie Newseria oprac. db





środa, 1 października 2025

Mobbing: Wielu pracowników odchodzi z pracy i nie walczy o swoje prawa


Co siódmy pracownik doświadcza mobbingu, jednak wielu z nich nie walczy o swoje prawa, tylko zmienia pracę. 


Wielu pracowników nie walczy o swoje prawa, wolą zmienić pracę. Fot. Pixabay.

15 proc. pracowników deklaruje, że doświadczyli mobbingu – wynika z danych Koalicji Bezpieczni w Pracy. W porównaniu do sytuacji sprzed sześciu lat odsetek ten nie wzrósł znacząco, ale za to świadomość tego zjawiska i umiejętność jego zdefiniowania była wśród pracowników znacznie lepsza. Nieco lepiej sytuacja wygląda w kadrze zarządzającej, co może oznaczać, że to głównie dla nich organizowane są szkolenia na ten temat. Większość pracowników podkreśla, że w ich firmie nie ma polityki antymobbingowej lub nic o niej nie wiedzą. 

"Zjawisko mobbingu wydaje się dość powszechne. Ponad 80 proc. ankietowanych, zarówno pracowników, jak i zarządzających, wskazało, że z tym terminem się spotkało. Natomiast trochę mniejszy odsetek potrafi go poprawnie zdefiniować" mówi Katarzyna Petrusiewicz, członkini zarządu Stowarzyszenia Koalicja Bezpieczni w Pracy, przedstawicielka CWS Workwear.

Jak wynika z badania SW Research dla Koalicji Bezpieczni w pracy, w sumie 79 proc. respondentów spośród kadry zarządzającej i 69 proc. pracowników zna pojęcie „mobbing” i na ogół potrafi określić jego znaczenie. W porównania do badania z 2019 roku widać wzrost świadomości po stronie kadry zarządzającej, natomiast zdecydowany spadek po stronie pracowników. W 2019 roku na nieznajomość terminu wskazywało 16 proc. badanych, a w tym roku – 31 proc.

"Być może świadczy to o tym, że nie ma właściwej komunikacji w firmie, zwłaszcza w kontekście tego, że wśród zarządzających te proporcje są dokładnie odwrotne" – mówi Katarzyna Pietrusiewicz. – "Najłatwiejszymi działaniami są szkolenia, które – jak pokazało nasze badanie – głównie kierowane są do kadry zarządzającej, więc należy iść z tymi szkoleniami i jasną komunikacją dalej do pracowników".

Obie strony postrzegają mobbing w podobny sposób, zgodny z definicją. Co czwarty badany wie, że charakteryzuje się on długotrwałością i uporczywością. Zwykle jest postrzegany jako zjawisko o charakterze hierarchicznym, czyli – w opinii respondentów – osobą mobbingującą zwykle jest przełożony lub ktoś o wyższym statusie zawodowym, posiadającym władzę, mimo że równie dobrze może nią być także ktoś na równoległym lub niższym stanowisku: 

"Co siódmy pracownik deklaruje, że mobbingu doświadczył. Dużo większą tendencję do zgłaszania zdarzeń mobbingowych mają kobiety [16 proc. versus 13 proc. mężczyźni]. Jeżeli chodzi o stanowisko, nasze badania nie wykazały szczególnych różnic w tym zakresie" wskazuje ekspertka CWS Workwear. 

Autorzy raportu komentują, że różnice dotyczące płci mogą wynikać z tego, że kobiety są bardziej otwarte na komunikowanie trudnych doświadczeń. Wśród zarządzających 14 proc. zadeklarowało doświadczenie mobbingu. Więcej niż co trzeci (37 proc.) został poinformowany przez pracowników o mobbingu, w tym 9 proc. przyznało, że zgłoszenia otrzymywało wielokrotnie. Przypadki mobbingu pośredniego, którego byli świadkami, sygnalizowało 19 proc. respondentów z obu grup: 

"Mobbing to jest dla pracowników bardzo stresująca sytuacja. Mówią, że spada ich motywacja do pracy. 10 proc. pracowników podejmuje od razu decyzję o zmianie pracy, zamiast próbować zawalczyć o swoje prawa. Niektórzy pracownicy deklarują, że ma to bezpośredni wpływ na ich dobrostan, na ich zdrowie psychiczne i fizyczne" mówi ekspertka. 

Obie badane grupy podkreśliły, że w sytuacji mobbingu w pierwszej kolejności zgłosiliby sprawę przełożonemu lub działowi HR. To mężczyźni częściej wskazywali na to, że wiedzą, jak zareagować w takiej sytuacji (66 proc. vs. 61 proc. kobiet). 

Z badania wynika jednak, że firmy wciąż nie poświęcają temu zjawisku wystarczającej uwagi. Tylko 37 proc. pracowników potwierdza, że w ich miejscu pracy obowiązuje procedura antymobbingowa, a 39 proc. nie ma takiej wiedzy. Jednocześnie 29 proc. przyznało, że pracodawca podejmuje jakiekolwiek aktywności mające na celu przeciwdziałanie mobbingowi, dyskryminacji, przemocy, stresowi i innym zagrożeniom psychospołecznym. W porównaniu do badania z 2019 roku wyraźnie spadł odsetek osób deklarujących, że przełożeni rozmawiają z pracownikami na te tematy (z 37 proc. do 28 proc.). 

Wśród kadry zarządzającej ocena praktyk w firmach jest bardziej pozytywna – ponad połowa potwierdza, że w ich miejscu pracy wdrożono politykę antymobbingową, a 25 proc. – że nic nie wie na ten temat: 

"W kwestii działań antymobbingowych w polskich firmach wydaje się, że wciąż jeszcze mamy dużo do zrobienia" – mówi Katarzyna Petrusiewicz. – "Pracownicy przede wszystkim nie widzą efektywności tych działań. Być może wynika to z tego, że nawet jeżeli w danej organizacji jakiekolwiek działania są podejmowane, decyduje o nich kadra zarządzająca, ona je wdraża i o nich wie. Pracownicy oczekują konkretnych działań i konkretnych efektów dla nich w codziennej pracy, dlatego jeżeli ich nie widzą, twierdzą, że takich działań w ogóle nie ma"

W zmianie sytuacji może pomóc procedowana nowelizacja Kodeksu pracy, która ma zobowiązać pracodawców do aktywnego przeciwdziałania mobbingowi i dyskryminacji. Znajdzie się w niej także nowa definicja mobbingu, która ma być precyzyjniejsza i dokładnie określić przykładowe przejawy nękania takie jak poniżanie, izolowanie pracownika czy utrudnianie mu wykonywania zadań. Zdaniem ekspertów to pożądana zmiana, korzystna dla obu stron.

"W tym momencie definicja jest na tyle niejasna dla pracowników, że wiele różnych zjawisk określają oni jako zjawiska mobbingujące" – mówi ekspertka Koalicji Bezpieczni w Pracy. – "Najczęściej w definicji mamy stwierdzenie uporczywości i długotrwałości. Jest to bliżej nieokreślone. Pracownicy bardzo często jednorazowe zdarzenie, jednorazowe działanie traktują już jako mobbing i myślę, że tutaj jest bardzo duże pole do doprecyzowania: co to znaczy, jakiego rodzaju działanie, jak długo powinno trwać, żeby być uznane za mobbing, żeby odróżnić sytuację, którą mamy dzisiaj, że w zasadzie każde działanie, które może się pracownikowi nie podobać, zostanie potraktowane jako mobbing". 

W opinii ekspertów obecne przepisy w ograniczonym stopniu chronią osoby dotknięte mobbingiem – zarówno w kontekście dochodzenia roszczeń, jak i prewencji: 

"Jak pokazują nasze badania, najczęściej jest tak, że osoba, która jest mobbingowana, pozostaje niestety potem sama i ma na sobie ciężar udowodnienia mobbingu, jakiego doświadczyła, musi zebrać bardzo silny materiał dowodowy. To nie może być tylko słowo, to muszą być komunikaty, najlepiej, żeby byli świadkowie, być może jakieś maile, a to jest bardzo trudno zebrać pracownikowi. Niechętnie koledzy angażują się w taką sprawę i w zebranie dowodów, co być może wynika z tego, że wciąż pracują w firmie i nie chcą się narażać" – tłumaczy Katarzyna Petrusiewicz. – "Mówi się o tym, że być może zmiany powinny pójść w tym kierunku, że pracownik powinien uprawdopodobnić zdarzenie zaistnienia mobbingu, a potem pracodawca powinien udowodnić, że taki mobbing miał miejsce bądź nie miał miejsca". 

Jak podkreśla, to jednak może się okazać kontrowersyjną zmianą, prowadzącą do różnych nadużyć. Wymagałaby ona wyraźnego doprecyzowania w przepisach tego, co pracownik powinien wykazać, co to znaczy uprawdopodobnienie i jak pracodawca miałby na to skutecznie reagować.

Na podstawie Newseria, oprac. db






Patriotyczne koszulki i gadżety

Patriotyczne koszulki i gadżety
Patriotyczne koszulki i gadżety