26.01.2025

Tagi Google (kody śledzenia) w służbie nauki

Google Tag Manager (GTM) to narzędzie, które pozwala na łatwą integrację z różnymi tagami na stronie, np. kodami śledzenia Google Analytics, tagami remarketingowymi, pikselami Facebooka, czy też niestandardowymi skryptami. Dzięki GTM naukowcy zyskują wygodny sposób na zbieranie i analizowanie danych związanych z interakcjami użytkowników na stronach internetowych lub platformach e-learningowych. W tym artykule omówimy, jak GTM może być zastosowany w kontekście badań naukowych oraz jakie korzyści płyną z jego wdrożenia.

1. Zbieranie danych i analiza ruchu w badaniach naukowych
W wielu dziedzinach nauki, zwłaszcza w psychologii, socjologii, czy naukach o edukacji, ważne jest zbieranie danych o interakcjach użytkowników z treściami dostępnymi na stronach internetowych. GTM umożliwia łatwe implementowanie narzędzi analitycznych, takich jak Google Analytics czy Hotjar, które pomagają w śledzeniu, jak użytkownicy wchodzą w interakcję z danymi materiałami. Tagi mogą rejestrować informacje o kliknięciach, przewijaniu stron, czasie spędzonym na stronie czy porzuceniu formularzy.

Takie dane mogą być kluczowe w badaniach dotyczących efektywności materiałów edukacyjnych, testów online, czy w eksperymentach dotyczących zachowań użytkowników w środowisku cyfrowym.

2. Optymalizacja badań eksperymentalnych
Google Tag Manager daje badaczom możliwość przeprowadzania zaawansowanych eksperymentów online bez potrzeby ręcznego modyfikowania kodu strony. Badacze mogą implementować różne tagi w celu testowania hipotez, np. poprzez A/B testing, czyli testowanie dwóch wersji strony (lub komponentu strony) w celu sprawdzenia, która z nich lepiej odpowiada na potrzeby użytkowników. Dzięki temu można przeprowadzać eksperymenty związane z interakcją z treściami edukacyjnymi, oceną wrażeń użytkowników lub zachowaniami konsumentów w badaniach rynkowych.

3. Monitorowanie wyników edukacyjnych i efektywności kursów online
GTM może wspierać badania związane z nauką i edukacją, szczególnie w kontekście kursów online i platform edukacyjnych. Naukowcy mogą monitorować, jak uczestnicy kursów korzystają z materiałów edukacyjnych: które elementy są klikane najczęściej, jakie materiały są oglądane w pełni, a które są porzucane. Dodatkowo, można śledzić, w jaki sposób użytkownicy angażują się w interaktywne elementy, takie jak quizy, testy czy fora dyskusyjne. Te dane mogą posłużyć do analizy efektywności metod nauczania i do optymalizacji kursów w oparciu o rzeczywiste zachowania użytkowników.

4. Zastosowanie w badaniach socjologicznych i psychologicznych
Google Tag Manager pozwala na zbieranie danych związanych z zachowaniami użytkowników na stronach internetowych, co jest cenne w badaniach socjologicznych i psychologicznych. Analiza śladów cyfrowych pozwala na zgłębianie tematów takich jak uzależnienie od internetu, wpływ mediów społecznościowych na zachowanie jednostek czy badanie reakcji ludzi na różne typy treści. GTM ułatwia zbieranie tych danych w sposób zautomatyzowany, co pozwala na uzyskanie rzetelnych i szerokich wyników, które można analizować za pomocą narzędzi statystycznych.

5. Integracja z narzędziami zewnętrznymi i badania międzyplatformowe
GTM może być używany do integracji z innymi narzędziami analitycznymi i badawczymi, co daje naukowcom jeszcze szersze możliwości zbierania i analizy danych. Dzięki współpracy z narzędziami takimi jak Google Optimize (A/B testing), Google BigQuery (analiza danych w chmurze) czy Zapier (automatyzacja procesów), badacze mogą tworzyć kompleksowe systemy do analizowania danych z różnych źródeł i platform. Możliwość zbierania danych z różnych kanałów (strony internetowe, aplikacje mobilne, social media) pozwala na bardziej holistyczne podejście do badań.

6. Zwiększenie dostępności danych naukowych
GTM może również wspierać inicjatywy związane z dostępnością danych naukowych. Dzięki jego elastyczności, tagi mogą być używane do gromadzenia informacji o interakcjach z publikacjami naukowymi, repozytoriami danych, a także o udostępnianiu wyników badań. Naukowcy mogą śledzić, jakie materiały są najczęściej pobierane lub przeglądane, co pozwala na lepsze dostosowanie zasobów do potrzeb odbiorców.

7. Popularyzacja nauki
Google Tag Manager wspiera popularyzację nauki poprzez poprawę dostępności treści edukacyjnych i popularnonaukowych. Dzięki łatwemu implementowaniu tagów umożliwiających analizę efektywności przekazu, badacze mogą lepiej dopasować treści do odbiorców i testować różne formy prezentacji wyników badań. GTM może także wspomagać badania nad tym, jak różne grupy społeczne reagują na określone komunikaty naukowe, co jest cenne w kontekście strategii komunikacji nauki.

Jak narzędzia analityczne wspierają procesy zarządzania dowodami

Tabela pokazuje, jak narzędzia analityczne wspierają procesy zarządzania dowodami, umożliwiając gromadzenie, analizowanie i ocenę efektywności działań zarządzających, co jest kluczowe dla podejmowania decyzji opartych na rzetelnych dowodach.

ObszarWsparcie w zarządzaniu dowodamiZasada etyki
ZbieranieUmożliwia efektywne śledzenie interakcji użytkowników z badaniami, raportami, dokumentami oraz innymi źródłami danych, co pozwala na gromadzenie cennych informacji dotyczących efektywności różnych strategii zarządzania.Przejrzystość i integralność – Dane muszą być zbierane w sposób rzetelny i przejrzysty, zapewniając pełną zgodność z przepisami prawa i normami etycznymi.
Monitorowanie Śledzi, które informacje i zasoby są najczęściej przeglądane i z jakim zaangażowaniem, co umożliwia ocenę skuteczności prezentowanych dowodów i podejść zarządzających.Odpowiedzialność za dane – Należy odpowiedzialnie gromadzić dane, chroniąc prywatność użytkowników oraz zachowując transparentność procesów analitycznych.
Ocena Pozwala analizować, które materiały edukacyjne (szkolenia, artykuły, kursy online) są najskuteczniejsze w przekazywaniu wiedzy oraz wspierają lepsze decyzje w procesach zarządzania.Bezstronność – Materiały edukacyjne i analizy muszą być oparte na wiarygodnych, sprawdzonych źródłach, bez faworyzowania jakichkolwiek interesów zewnętrznych.
AnalizaUmożliwia monitorowanie i analizowanie, które podejścia lub narzędzia w procesie zarządzania są najczęściej wybierane, co pozwala na optymalizację działań opartych na dowodach.Uczciwość w analizach – Wyniki analiz muszą być prezentowane w sposób uczciwy, bez manipulacji danymi, w celu dostarczenia obiektywnego obrazu efektywności działań.
IntegracjaUłatwia integrację z narzędziami analitycznymi, co pozwala na lepsze zbieranie, przetwarzanie i raportowanie danych w kontekście decyzji zarządzających opartych na dowodach.Bezpieczeństwo danych – Zapewnienie odpowiednich środków ochrony danych przed nieautoryzowanym dostępem, naruszeniami prywatności i ich niewłaściwym wykorzystaniem.
AudytUmożliwia przeprowadzanie audytów jakości działań zarządzających, pomagając ocenić ich skuteczność w oparciu o konkretne dane i wyniki analiz.Transparentność wyników – Wyniki audytów powinny być dostępne i przejrzyste dla wszystkich zainteresowanych stron, w celu zachowania odpowiedzialności i wiarygodności w procesie zarządzania.

Wnioski

Google Tag Manager to narzędzie o dużym potencjale dla naukowców, którzy chcą analizować zachowania użytkowników, przeprowadzać eksperymenty online oraz optymalizować procesy edukacyjne. Dzięki jego elastyczności i integracji z różnymi platformami analitycznymi, badacze mogą gromadzić wartościowe dane, które stanowią fundament do tworzenia nowych hipotez i wniosków. GTM wprowadza nową jakość w badaniach naukowych, umożliwiając bardziej precyzyjne i rzetelne monitorowanie zjawisk w środowisku cyfrowym.

Źródło grafiki: https://ads.google.com/home/privacy/solutions/google-tag/


Inicjatywa Retraction Watch

Retraction Watch to inicjatywa, która od lat odgrywa kluczową rolę w monitorowaniu retrakcji artykułów naukowych. Projekt Retraction Watch Data, dostępny na platformie GitLab, stanowi istotne narzędzie wspierające przejrzystość i rzetelność w świecie nauki. Dzięki regularnym aktualizacjom i otwartemu dostępowi do danych, społeczność naukowa oraz osoby zainteresowane mają możliwość dogłębnej analizy problemów związanych z retrakcjami.

Co oferuje projekt Retraction Watch Data?

  1. Dane o retrakcjach
    Projekt gromadzi informacje o retrakcjach z wielu źródeł, takich jak strony wydawnicze, bazy danych naukowych oraz inne zasoby online. Te dane pozwalają śledzić przypadki wycofania publikacji z powodów takich jak błędy metodologiczne, plagiaty czy inne naruszenia etyki naukowej.

  2. Codzienne aktualizacje
    Dzięki regularnym aktualizacjom użytkownicy mogą mieć pewność, że korzystają z najnowszych dostępnych informacji. Aktualizacja danych odbywa się codziennie, co pozwala na bieżące śledzenie zmian w zakresie retrakcji i powiązanych wydarzeń.

  3. Dostępność danych w formacie CSV
    Dane są udostępniane w formacie CSV, co czyni je łatwo dostępnymi dla użytkowników zajmujących się analizami statystycznymi, budowaniem modeli danych czy wizualizacjami. Dzięki temu naukowcy, dziennikarze oraz instytucje mają możliwość skutecznego korzystania z tych zasobów w swoich badaniach.

Dlaczego projekt jest ważny dla nauki?

Retrakcje naukowe są ważnym narzędziem zapewniającym odpowiedzialność i rzetelność w publikacjach naukowych. Informowanie o nich pomaga wyeliminować błędy, zapobiegać nieetycznym praktykom i budować zaufanie do nauki. Projekt Retraction Watch Data, dzięki swojej dostępności i przejrzystości, wspiera ten proces, umożliwiając społeczności naukowej:

  • Identyfikowanie problematycznych obszarów w publikacjach naukowych,
  • Śledzenie trendów w zakresie retrakcji i ich przyczyn,
  • Pogłębianie wiedzy na temat tego, jak poprawić procesy publikacyjne.

Jak skorzystać z projektu?

Projekt Retraction Watch Data dostępny jest na GitLabie, co pozwala każdemu na bezpłatne pobieranie danych i korzystanie z nich zgodnie z własnymi potrzebami. Platforma GitLab umożliwia także integrację tych danych z różnymi narzędziami analitycznymi, co czyni projekt jeszcze bardziej uniwersalnym i użytecznym.

Podsumowanie

Projekt Retraction Watch Data to krok naprzód w budowaniu przejrzystości w nauce. Codzienne aktualizacje, otwarty dostęp i łatwość wykorzystania danych czynią go niezwykle cennym źródłem informacji dla wszystkich, którzy dążą do utrzymania wysokich standardów etyki i rzetelności naukowej.

Źródło: 

  1. https://retractionwatch.com/papers-that-cite-retraction-watch/ [2025-01-26]
  2. Małgorzata Skórzewska-Amberg, Weryfikacja pozycji naukowej autora i jego jednostki kluczem do walki z papierniami, https://forumakademickie.pl/sprawy-nauki/weryfikacja-pozycji-naukowej-autora-i-jego-jednostki-kluczem-do-walki-z-papierniami/; (26 01 2025).

Retrakcja naukowa

Retrakcja naukowa to proces wycofania wcześniej opublikowanego artykułu naukowego z literatury naukowej. Retrakcja jest zwykle ogłaszana przez wydawcę lub autorów i może być spowodowana różnymi przyczynami, takimi jak błędy metodologiczne, fałszowanie danych, plagiat lub inne nieetyczne praktyki. Celem retrakcji jest korygowanie literatury naukowej i zapewnienie jej integralności oraz dokładności.

Wycofania artykułów naukowych powinny być ogłaszane w sposób przejrzysty i zrozumiały dla całej społeczności – zarówno badaczy, jak i społeczeństwa. Informacje o przyczynach wycofania muszą być jasne i łatwo dostępne, aby umożliwić korektę dalszych badań oraz zapobiec powielaniu błędów lub manipulacji.

Retrakcje są istotnym elementem w utrzymaniu rzetelności badań naukowych i ochronie wiarygodności literatury naukowej. Aby zachować przejrzystość, informacje o retrakcjach są zazwyczaj publicznie dostępne i mogą być śledzone przez różne bazy danych, takie jak Retraction Watch.

Cherry-picking w służbie hipotezy

Cherry-picking, czyli wybiórcze przedstawianie danych naukowych, to zjawisko polegające na świadomym wybieraniu jedynie tych informacji, które potwierdzają określoną hipotezę, przy jednoczesnym ignorowaniu dowodów, które mogłyby ją podważyć. Choć nauka opiera się na dążeniu do obiektywności i prawdy, cherry-picking podważa te ideały, prowadząc do zniekształcenia rzeczywistości oraz wprowadzania w błąd odbiorców.

Przykłady cherry-pickingu można odnaleźć w raportach dotyczących zmian klimatycznych, medycyny czy żywienia, gdzie prezentowane są jedynie wybrane fragmenty danych, ignorujące pełny kontekst i przeciwwskazania. Jak jednak zdiagnozować cherry-picking w badaniach lub publikacjach naukowych?

Wskaźniki diagnostyczne cherry-pickingu

Poniższa tabela przedstawia trzy kluczowe wskaźniki, które mogą świadczyć o stosowaniu cherry-pickingu:

WskaźnikOpisZnaczenie dla diagnozy
Brak równowagi w przedstawianiu wynikówAutorzy eksponują tylko dane wspierające ich tezę, pomijając inne badania lub wyniki sprzeczne z hipotezą.Wskazuje na selektywność w celu uwiarygodnienia z góry przyjętego stanowiska.
Nieprzejrzystość w doborze źródełBrak uzasadnienia, dlaczego niektóre dane zostały uwzględnione w analizie, a inne pominięte.Może sugerować ukrywanie dowodów niewygodnych dla tezy badawczej.
Zniekształcenie statystykPrezentowanie danych w sposób wyolbrzymiający pozytywne wyniki lub bagatelizujący wyniki negatywne.Wskazuje na manipulację interpretacją danych w celu ich uprawdopodobnienia.

Dlaczego cherry-picking jest niebezpieczne?

Cherry-picking narusza etos naukowy, osłabiając zaufanie do badań. W praktyce może prowadzić do fałszywych wniosków i nieodpowiednich decyzji – w polityce zdrowotnej, ochronie środowiska czy medycynie. Na przykład wybiórcze badania dotyczące skuteczności terapii mogą powodować promowanie nieskutecznych metod leczenia, co jest szczególnie niebezpieczne dla pacjentów.

Jak przeciwdziałać cherry-pickingowi?

Zjawisko to wymaga większej przejrzystości w procesie badawczym, rzetelnego recenzowania publikacji oraz edukacji zarówno naukowców, jak i społeczeństwa w zakresie krytycznego podejścia do prezentowanych danych. Tylko dzięki temu nauka może pełnić swoją podstawową funkcję – dostarczanie obiektywnej i wiarygodnej wiedzy o rzeczywistości.


Papiernie naukowe (ang. research paper mills)

Papiernie naukowe (ang. research paper mills) to organizacje lub grupy osób zajmujące się masową produkcją artykułów naukowych, które następnie są publikowane w renomowanych czasopismach w sposób niezgodny z zasadami etyki naukowej. Ich działalność polega na dostarczaniu „gotowych” tekstów na zamówienie lub sprzedaży miejsc współautorskich w artykułach już przygotowanych do publikacji. W ofercie papierni często znajdują się także usługi tłumaczeń, korekty naukowej oraz wsparcie w procesie publikacji. Model biznesowy takich organizacji opiera się na wykorzystywaniu presji wywieranej na naukowców, którzy w celu podniesienia swojego dorobku naukowego, niejednokrotnie sięgają po usługi tego typu.

W kontekście rosnącej liczby przypadków związanych z papierniami, kluczowym aspektem walki z tym zjawiskiem staje się weryfikacja pozycji naukowej autorów oraz instytucji, z którymi są oni związani. Tylko w ten sposób można zapewnić rzeczywistą przejrzystość i odpowiedzialność w środowisku naukowym. Proces weryfikacji obejmowałby dokładniejsze sprawdzenie afiliacji naukowca oraz powiązań z jednostką naukową, w której publikuje. Wycofanie artykułu z renomowanego czasopisma, w wyniku wykrycia powiązań z papiernią, może być początkiem procesu mającego na celu nie tylko ukaranie autora, ale i instytucji, z którą jest związany. Z tego powodu, w niektórych przypadkach, należałoby rozważyć żądanie zwrotu funduszy uzyskanych przez naukowca i uczelnię na podstawie zakwestionowanej publikacji.

Taki system weryfikacji nie tylko zmniejszyłby popularność papierni, ale także mógłby stanowić mocny argument dla zachowania etyki naukowej. Zjawisko papierni podważa nie tylko wiarygodność pojedynczych publikacji, ale i cały system oceny naukowej, który wciąż opiera się w dużej mierze na liczbie publikacji w prestiżowych czasopismach. Działania mające na celu eliminację publikacji z papierni pozwolą na odzyskanie zaufania do rzetelnych badań naukowych oraz sprawią, że uczelnie i grantodawcy zaczną większą wagę przykładać do jakości badań, a nie tylko do ilości opublikowanych artykułów.

23.01.2025

Plan S i arXiv Czy to odpowiedź na problemy nauki?

Współczesna nauka znajduje się na rozdrożu. Z jednej strony naciska na nią potrzeba otwartości i dostępności wyników badań, czego przykładem są inicjatywy takie jak Plan S i arXiv. Z drugiej strony, istnieje problem nadprodukcji naukowych publikacji – zjawiska określanego mianem „papierni” naukowej – które podważa wartość i celowość niektórych badań. Jak te dwa nurty wpływają na siebie nawzajem? Czy otwarta nauka jest lekarstwem na presję publikacyjną?

Presja publikacyjna a „papiernia” naukowa

Presja publikacyjna, określana hasłem „publish or perish” (publikuj albo zgiń), zmusza naukowców do regularnego publikowania wyników badań, aby utrzymać się w akademickiej grze. System oceniania naukowców oparty na liczbie publikacji, cytowaniach i wskaźnikach takich jak impact factor, prowadzi do szeregu negatywnych zjawisk:

  1. Nadprodukcja niskiej jakości artykułów: badania o wątpliwej wartości naukowej są publikowane w masowych ilościach, często w czasopismach o niskim standardzie recenzji.
  2. Fragmentacja badań: duże projekty badawcze są sztucznie dzielone na mniejsze artykuły, by zwiększyć liczbę publikacji (tzw. salami slicing).
  3. Problemy etyczne: presja na wyniki prowadzi czasem do manipulacji danymi, plagiatu lub publikowania w pseudonaukowych czasopismach (tzw. predatory journals).

Plan S i arXiv jako odpowiedź na problemy nauki

Plan S – zmiana systemowa

Plan S to inicjatywa mająca na celu wprowadzenie obowiązkowego otwartego dostępu do wyników badań finansowanych ze środków publicznych. Jej założenia nie tylko wspierają otwartość nauki, ale również zmuszają do refleksji nad jakością publikacji.

  • Ograniczenie nadprodukcji: Plan S promuje model, w którym nacisk kładzie się na jakość publikacji, a nie na ich ilość. Naukowcy muszą publikować w otwartych czasopismach lub repozytoriach, co eliminuje możliwość ukrywania prac w płatnych, niskiej jakości periodykach.
  • Zwiększenie dostępności: dzięki Planowi S wyniki badań stają się dostępne dla wszystkich, co z kolei sprzyja lepszej współpracy i wymianie wiedzy między naukowcami.

Jednak Plan S nie jest wolny od krytyki. Niektórzy badacze obawiają się, że obowiązkowe publikowanie w otwartym dostępie zwiększy presję finansową na naukowców, zmuszając ich do opłacania kosztów publikacji (APC – article processing charges). To z kolei może pogłębiać nierówności między bogatymi a biednymi ośrodkami badawczymi.

arXiv – platforma dla naukowców

arXiv, jako repozytorium preprintów, odgrywa kluczową rolę w promowaniu szybkiego i otwartego dostępu do wyników badań. W kontekście presji publikacyjnej i nadprodukcji arXiv oferuje kilka rozwiązań:

  1. Szybka publikacja wyników: dzięki arXiv naukowcy mogą udostępniać swoje prace jeszcze przed ich oficjalną recenzją. To zmniejsza presję na publikowanie w wysokopunktowanych czasopismach i promuje otwartą dyskusję naukową.
  2. Transparentność: publikowanie preprintów na arXiv umożliwia naukowcom udostępnianie pełnych wyników badań, co przeciwdziała fragmentacji badań.
  3. Dostęp dla każdego: wszystkie materiały na arXiv są dostępne bezpłatnie, co eliminuje finansowe bariery dostępu do wiedzy.

Choć arXiv działa głównie w środowiskach takich jak fizyka, matematyka i informatyka, jego model z powodzeniem może być adaptowany w innych dziedzinach nauki.

Ginsparg at Cornell University.jpg
Fot. Pogens [w] English-language Wikipedia Paul Henry Ginsparg (ur. 1 stycznia 1955) fizyk, twórca arXiv.org .

Czy otwarta nauka rozwiązuje problem „papierni”?

Zarówno Plan S, jak i arXiv dążą do zwiększenia dostępności i transparentności nauki, ale czy mogą być remedium na problem nadprodukcji publikacji?

  • Zalety otwartego dostępu: inicjatywy takie jak Plan S i arXiv promują publikacje o wysokiej jakości, które są dostępne dla szerokiego grona odbiorców. W dłuższej perspektywie mogą ograniczyć presję na ilość publikacji, przenosząc ciężar oceny naukowców na jakość ich pracy.

  • Ryzyko paradoksu: jednocześnie otwarty dostęp może paradoksalnie nasilać problem „papierni”, jeśli nie zostaną wprowadzone odpowiednie mechanizmy kontroli jakości. Bez odpowiedniej edukacji i zmiany kultury naukowej, nawet w modelu otwartym może dochodzić do nadużyć i nadprodukcji.

Propozycje rozwiązania problemu

  1. Zmiana systemu oceny naukowców: odejście od oceny opartej na liczbie publikacji i wskaźnikach cytowań na rzecz bardziej jakościowych kryteriów, takich jak wpływ badań na społeczeństwo, współpraca międzynarodowa czy jakość dydaktyki.
  2. Promowanie repozytoriów jak arXiv: rozszerzenie takich platform na nowe dziedziny nauki oraz stworzenie zachęt dla naukowców do publikowania w otwartym modelu.
  3. Edukacja naukowców: szkolenia z zakresu etyki publikacyjnej i znaczenia otwartego dostępu mogą pomóc zmienić podejście do publikowania.
  4. Transparentne finansowanie: zarówno Plan S, jak i inne inicjatywy Open Access powinny gwarantować, że koszty publikacji nie będą barierą dla naukowców z mniej zamożnych ośrodków.

Podsumowanie

Plan S i arXiv to kluczowe inicjatywy w walce o otwartość i dostępność nauki. Choć nie są one wolne od wyzwań, ich potencjał w przeciwdziałaniu problemom presji publikacyjnej i „papierni” naukowej jest ogromny. Kluczem do sukcesu jest jednak zmiana nie tylko narzędzi, ale i kultury naukowej – odejście od ilości na rzecz jakości, wspieranie współpracy zamiast konkurencji oraz zapewnienie, że nauka pozostaje dostępna dla wszystkich, a nie tylko dla wybranych.

16.01.2025

Wpadki nauki na przestrzeni dziejów

Rozwój nauki jest nieodłącznie związany z błędami, które często wynikają z oparcia się na spekulacjach zamiast twardych dowodów. Historia nauki dostarcza licznych przykładów, w których źle zinterpretowane dane lub nadmierna ufność do niezweryfikowanych teorii prowadzą do poważnych wpadek. Poniższy artykuł omawia najbardziej znane z nich, ich konsekwencje oraz znaczenie dla współczesnej metodologii naukowej.

1. Geocentryzm – przekonanie o centralnym miejscu Ziemi we wszechświecie

Jednym z najbardziej znanych błędów naukowych była teoria geocentryczna, według której Ziemia znajdowała się w centrum wszechświata. Ten pogląd, popierany przez Ptolemeusza i wspierany przez kościół katolicki, dominował przez ponad tysiąc lat. Brak odpowiednich narzędzi obserwacyjnych i skłonność do potwierdzania teorii zgodnych z ówczesną filozofią sprawiły, że teoria heliocentryczna Mikołaja Kopernika została początkowo odrzucona. Dopiero prace Galileusza i Keplera dostarczyły niezbitych dowodów obalających geocentryzm.

Nauka różni się od nienauki tym, że wątpliwość jest jej siłą, a nie słabością. Zamiast bać się wątpliwości, należy je przyjmować jako bodziec do szukania lepszych odpowiedzi.

2. Teoria humoralna w medycynie

Od starożytności aż do początków nowożytnej medycyny dominowała teoria humoralna, opracowana przez Hipokratesa i rozwinięta przez Galena. Według tej koncepcji zdrowie zależy od równowagi czterech humorów: krwi, żółci, śluzu (flegmy) i czarnej żółci. Leczenie opierało się na takich praktykach jak upuszczanie krwi czy stosowanie purgatywów, które często bardziej szkodziły niż pomagały. Dopiero rozwój anatomii i mikrobiologii w XVII i XIX wieku pozwolił na odrzucenie tej spekulacyjnej teorii.

3. Alchemia jako praprzodek chemii

W średniowieczu alchemicy wierzyli, że możliwe jest przekształcenie metali nieszlachetnych w zloto oraz odkrycie eliksiru życia. Choć działania te opierały się na braku solidnych dowodów, alchemia przyczyniła się do rozwoju chemii poprzez opracowanie technik takich jak destylacja i sublimacja. Niemniej jednak, długotrwałe utrzymywanie się wśród alchemików spekulacji zamiast metod naukowych opóźniało rozwój nauk przyrodniczych.

4. Teoria samorzutnego powstawania życia

Przez wiele wieków wierzono, że życie może powstawać spontanicznie z martwej materii. Przykłady takie jak gnicie mięsa, z którego miały powstawać muchy, były traktowane jako dowód. Dopiero eksperymenty Francesca Rediego i Louisa Pasteura wykazały, że życie może pochodzić jedynie z już istniejącego życia, co zapoczątkowało rozwój mikrobiologii.

5. Kreacjonizm młodej Ziemi

Kreacjonizm młodej Ziemi to pogląd, według którego Ziemia i cały wszechświat zostały stworzone w ciągu sześciu dni około 6-10 tysięcy lat temu, zgodnie z dogmatyczną interpretacją Biblii. Pogląd ten ignoruje przytłaczające dowody naukowe, takie jak datowanie radiometryczne skał czy dowody paleontologiczne, które wskazują na miliardy lat procesu pojawiania się życia. Pomimo swojej popularności w niektórych kręgach religijnych, kreacjonizm młodej Ziemi jest przykładem oparcia się na spekulacjach i przekonaniach zamiast na dowodach naukowych [patrz przypis *]

W przeszłości zarówno naukowcy, jak Kepler i Newton, jak i wielu teologów, zwłaszcza protestanckich, podejmowali próby obliczenia wieku świata na podstawie Biblii. Szczególnie wpływową postacią okazał się anglikański biskup James Ussher (1581–1656). Ussher doszedł do wniosku, że Ziemia została stworzona 22 października 4004 roku p.n.e., w sobotę, o szóstej wieczorem. Praca Usshera popadła w niesławę w XIX wieku.

6. Eugenika – pseudonauka o doskonaleniu gatunku ludzkiego

Ilustracja: N.Perscheid,
domena publiczna

Na przełomie XIX i XX wieku pojawiła się teoria eugeniki, która zakładała możliwość poprawy cech dziedzicznych ludzkości poprzez selektywną reprodukcję. Bazując na błędnych założeniach genetycznych i braku empirycznych dowodów, eugenika doprowadziła do wielu tragedii, takich jak przymusowe sterylizacje i ludobójstwo. Współczesna genetyka jednoznacznie obaliła teorie eugeniczne jako pseudonaukowe.

Wnioski

Lekcja dla nas: akceptacja nienaukowych poglądów może prowadzić do podważania wiarygodności badań naukowych, utrudniania postępu technologicznego i wzrostu sceptycyzmu wobec osiągnięć nauki w społeczeństwie.

Historia nauki pokazuje, jak groźne może być opieranie się na spekulacjach zamiast dowodów. Każda z omówionych wpadek podkreśla znaczenie metody naukowej, opartej na obserwacji, eksperymentach i weryfikacji hipotez. Choć błędy są nieuniknione, stanowią one również cenną lekcję, pomagając udoskonalać procesy badawcze i unikać podobnych pomyłek w przyszłości.

Krytyka historycznych teorii powinna jednak uwzględniać ówczesne metody badawcze, stan wiedzy i kontekst kulturowy epoki, w której powstały. 

Należy bowiem trzeźwo przyznać, że odrzucanie dawnych teorii wyłącznie dlatego, że nie spełniają obecnych kryteriów naukowości, świadczy o braku zrozumienia procesu rozwoju wiedzy naukowej. Niejedna teoria, nawet jeśli dziś uznajemy ją za błędną, mogła stanowić istotny krok w rozwoju myśli naukowej i być wyrazem rzetelnego, metodycznego podejścia badawczego w ramach ówczesnych możliwości poznawczych. Warto docenić systematyczność i intelektualny wysiłek dawnych uczonych, nawet jeśli ich wnioski zostały później obalone przez postęp nauki.


[*] Biblia nie mówi, kiedy Bóg zaczął stwarzać wszechświat ani jak długo to trwało. Po prostu stwierdza: Na początku Bóg stworzył niebo i ziemię Rdz 1;1 BT. Czy sześć dni stwarzania to literalne, 24-godzinne dni? W Biblii w zależności od kontekstu słowo „dzień” może odnosić się do różnych okresów. Na przykład jeden z fragmentów relacji biblijnej nazywa cały okres stwarzania jednym dniem (Rdz 2;4). Yom ( hebr . יום ) oznacza dzień zarówno we współczesnym, jak i biblijnym języku hebrajskim.

Żródło zdjecia: Ernst Haeckel , niemiecki biolog i przyrodnik. Fotografia opublikowana w Photographische Gesellschaft , 1906. https://commons.wikimedia.org/wiki/File:ErnstHaeckel.jpg

10.01.2025

Determinanty zastosowania koncepcji Zarządzania dowodowego dla wyjaśniania bytów ontologicznych w naukach o zarządzaniu i jakości

Kwartalnik Nauk o Przedsiębiorstwie“ 4 (2024), s. 115–135. https://doi.org/10.33119/KNoP.2024.74.4.8 

Celem artykułu jest wskazanie kluczowych determinant badania bytów ontologicznych w naukach o zarządzaniu jakości z zastosowaniem koncepcji Evidence Based Practice. Jako źródła danych dla przeprowadzenia badań i rozważań naukowych wykorzystano pozyskane wyniki z krytycznego przeglądu literatury w zakresie bytów ontologicznych definiowanych w zakresie paradygmatów w dyscyplinie nauki o zarządzaniu i jakości. Jako metodę badawczą zastosowano analizę krytyczną dotychczasowych badań z zakresu podjętego tematu, który pozwolił na stwierdzenie statusu obecnych badań (i wiedzy) odnośnie do opracowanego tematu i luki poznawczej w zakresie determinant zastosowania koncepcji Zarządzania dowodowego dla wyjaśniania bytów ontologicznych w naukach o zarządzaniu i jakości. Dowiedziono, że zastosowanie systematycznych przeglądów literatury (SPL), metaanaliz, oceny literatury szarej i innych metod badawczych może na bazie doświadczeń branży medycznej z powodzeniem być wykorzystane w obszarze dyscypliny nauki o zarządzaniu i jakości. Procesy badawcze oparte na poszukiwaniu dowodów naukowych z przeglądów wielu pozycji literaturowych zamieszczonych w bazach danych masowych pozwalają na poznanie naukowe znacznie szersze niż otrzymywane dotychczas w ramach klasycznego krytycznego przeglądu literatury. Wskazano, że deficyt wiedzy menedżerów w zakresie bytów ontologicznych osadzonych w określonych paradygmatach naukowych dyscypliny nauki o zarządzaniu i jakości utrudnia wykorzystanie metody zarządzania na podstawie dowodów naukowych. Zwiększająca się dostępność dużych zbiorów danych naukowych w postaci raportów z badań pozwala w lepszym stopniu poznać pojęcia i definicje, a także dowody (wyniki badań naukowych) i zastosować je powszechnie w procesach zarządczych. Wskazano, że zarządzanie dowodowe może być skuteczne, gdyż bardzo często menedżerowie nie potrafią rozpoznać bytów ontologicznych, którymi zarządzają, jak i nie znają ontologicznego znaczenia swoich decyzji w biznesie. Metoda Evidence Based Practice oparta na pozyskiwaniu dowodów naukowych na podstawie danych masowych w skuteczny sposób może wspierać nie tylko badaczy w dyscyplinie nauki o zarządzaniu i jakości, ale także menedżerów w ich zarządzaniu organizacjami.

RIS, Pdf




8.01.2025

Narzędzia wspomagające przeglądy systematyczne i text mining przy użyciu AI

Porządkowanie wiedzy naukowej oraz jej udostępnianie zarówno ludziom, jak i maszynom, stanowi fundament współczesnego rozwoju nauki. W dobie dynamicznego rozwoju nauki i technologii, przeglądy systematyczne odgrywają kluczową rolę w syntezie dostępnej wiedzy na dany temat. Ręczne przeprowadzanie takich przeglądów może być czasochłonne i podatne na błędy, dlatego coraz częściej wykorzystuje się narzędzia oparte na sztucznej inteligencji (AI), które automatyzują i usprawniają ten proces. Poniżej przedstawiono przegląd wybranych narzędzi AI, które wspomagają przeglądy systematyczne i text mining.

Abstrackr

Abstrackr to narzędzie wspierające przeglądy systematyczne poprzez automatyczne oznaczanie abstraktów, ułatwiające proces selekcji odpowiednich badań do przeglądu.

AISeer

AISeer wykorzystuje sztuczną inteligencję do automatycznego kodowania i analizy tekstu, wspierając badaczy w przeglądach systematycznych i identyfikacji istotnych informacji.

ASReview

ASReview to narzędzie wspomagające przeglądy systematyczne, które wykorzystuje algorytmy uczenia maszynowego do przyspieszenia procesu selekcji literatury.

Covidence

Covidence to platforma do zarządzania przeglądami systematycznymi, która oferuje funkcje automatyzacji procesów, takie jak importowanie i sortowanie danych oraz deduplikacja.

DistillerSR

DistillerSR to narzędzie do przeglądów systematycznych, które automatyzuje procesy zbierania danych i ułatwia analizę dużych zestawów danych.

EPPI-Reviewer

EPPI-Reviewer to zaawansowane narzędzie wspierające przeglądy systematyczne, które oferuje funkcje text miningu i automatycznego kodowania tekstów naukowych.

Kira Systems

Kira Systems to narzędzie do analizy dokumentów wykorzystujące AI do identyfikacji istotnych informacji, co może być użyteczne w badaniach naukowych i przeglądach literatury.

Litmaps

Litmaps to narzędzie, które pozwala na śledzenie publikacji naukowych i mapowanie powiązań między nimi, ułatwiając badaczom identyfikację trendów w literaturze.

PICO Portal

PICO Portal to narzędzie wspomagające przeglądy systematyczne, które automatyzuje procesy selekcji literatury i kodowania danych na podstawie modelu PICO (Pacjent, Interwencja, Kontrola, Wynik).

Rayyan

Rayyan to aplikacja do przeglądów systematycznych, która pozwala na szybkie i efektywne sortowanie oraz kodowanie artykułów przy użyciu funkcji wspomaganych przez AI.

RobotAnalyst

RobotAnalyst to narzędzie do przeglądów systematycznych, które wykorzystuje algorytmy AI do przyspieszenia procesu selekcji i analizy literatury.

Scholarcy

Scholarcy to asystent badań naukowych, który pomaga skracać dokumenty badawcze, tworzyć streszczenia i identyfikować kluczowe informacje.

ScreenIT

ScreenIT to narzędzie wspomagające przeglądy literatury naukowej, które wykorzystuje AI do automatycznego wykluczania nieistotnych prac, co przyspiesza proces selekcji.

Semantic Scholar

Semantic Scholar to zaawansowana wyszukiwarka literatury naukowej, która korzysta z technologii AI do analizy tekstu i sugerowania powiązanych badań.

Syntheses Automation

Syntheses Automation to narzędzie do automatyzacji przeglądów systematycznych przy użyciu technik sztucznej inteligencji, które wspiera procesy zbierania, sortowania i analizowania danych.

Text-Mining Tools

Text-Mining Tools to różne narzędzia wspierające analizę tekstu przy użyciu technik sztucznej inteligencji, które mogą być wykorzystywane do przeglądów systematycznych i analizy literatury.

Wnioski i ograniczenia

Narzędzia oparte na AI znacznie usprawniają proces przeglądów systematycznych i text miningu, redukując czas i wysiłek potrzebny do selekcji i analizy literatury. Dzięki zaawansowanym algorytmom i automatyzacji, badacze mogą skupić się na interpretacji danych i formułowaniu wniosków, zamiast na żmudnych zadaniach manualnych.

Pomimo wielu zalet, narzędzia oparte na AI nie są pozbawione ograniczeń. Wymagają one odpowiedniego szkolenia i konfiguracji, a ich skuteczność zależy od jakości i ilości danych wejściowych. Ponadto, w niektórych przypadkach mogą wystąpić błędy w klasyfikacji lub kodowaniu, co może wpływać na wyniki przeglądów systematycznych.

Zakończenie

Wykorzystanie narzędzi AI w przeglądach systematycznych i text miningu staje się coraz bardziej powszechne i niezbędne w nowoczesnych badaniach naukowych. Oferują one znaczące korzyści w postaci oszczędności czasu, zwiększenia efektywności i dokładności analiz. W miarę dalszego rozwoju technologii, można spodziewać się, że narzędzia te będą coraz bardziej zaawansowane i szeroko dostępne dla badaczy na całym świecie.

Scoping Review

Scoping Review to metoda przeglądu literatury, której celem jest zrozumienie i mapowanie dostępnych dowodów w danym obszarze badawczym. W odróżnieniu od systematycznego przeglądu, scoping review koncentruje się na szerokim przedstawieniu zakresu badań, identyfikacji kluczowych tematów, teorii i metod oraz zrozumieniu luki w wiedzy. Scoping review jest szczególnie użyteczne, gdy temat jest szeroki, zróżnicowany lub słabo zbadany, co umożliwia określenie, jakie badania zostały już przeprowadzone i które obszary wymagają dalszego zgłębienia.

Dla badaczy pracujących w ramach Evidence-Based Practice (EBP) i Evidence-Based Management (EBM), scoping review stanowi istotne narzędzie do początkowej fazy procesu badawczego. Pomaga zidentyfikować kluczowe zagadnienia, istniejące dowody oraz potencjalne luki, które mogą wymagać dalszego badania lub rozwoju. Daje to solidną podstawę do podejmowania decyzji opartych na dowodach, wprowadzania najlepszych praktyk oraz skutecznego zarządzania, które są fundamentem zarówno w praktyce zawodowej, jak i w zarządzaniu organizacjami.

Scoping review dostarcza kompleksowego obrazu istniejącej wiedzy, co pozwala badaczom i praktykom EBP oraz EBM na lepsze ukierunkowanie swoich działań badawczych, podejmowanie świadomych decyzji oraz poprawę jakości praktyki zawodowej i zarządzania na podstawie rzetelnych, zróżnicowanych dowodów.

Inspiracje: 

  1. Hanan Khalil, Danielle Pollock, Patricia McInerney, Catrin Evans, Erica B. Moraes, Christina M. Godfrey, Lyndsay Alexander, Andrea Tricco, Micah D. J. Peters, Dawid Pieper, Ashrita Saran, Daniel Ameen, Petek Eylul Taneri, Zachary Munn, Automation tools to support undertaking scoping reviews, „Research synthesis methods“ 6/15 (2024), s. 839–850.
  2. Zachary Munn, Micah D. J. Peters, Cindy Stern, Catalin Tufanaru, Alexa McArthur, Edoardo Aromataris, Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach, „BMC medical research methodology“ 1/18 (2018), s. 143.

7.01.2025

Przykłady „halucynacji”

W kontekście Evidence-Based Practice (EBP) i Evidence-Based Management (EBM), „halucynacje” algorytmów mogą być szczególnie problematyczne, ponieważ mogą prowadzić do podejmowania decyzji na podstawie nieprawidłowych lub nieistniejących danych.

Zjawisko „halucynacji” algorytmów

Zjawisko „halucynacji” algorytmów, szczególnie w kontekście uczenia maszynowego i generatywnej sztucznej inteligencji, odnosi się do sytuacji, w której model AI generuje informacje lub odpowiedzi, które są nieprawdziwe lub nie mają oparcia w rzeczywistych danych. Halucynacje mogą przybierać różne formy, takie jak:

  • Tworzenie fikcyjnych faktów: Algorytm może „wymyślić” dane lub zdarzenia, które nigdy nie miały miejsca.

  • Niewłaściwe odpowiedzi: Model może udzielać odpowiedzi, które są logicznie niepoprawne lub nie mają sensu w danym kontekście.

  • Przekręcanie faktów: Algorytm może nieprawidłowo zinterpretować informacje, co prowadzi do błędnych wniosków.

Przykłady „halucynacji” menedżerskich po zażyciu AI

  1. Planowanie strategiczne: Menedżerowie mogą używać algorytmów ML do analizy trendów rynkowych i przewidywania przyszłych zmian, co pozwala na tworzenie bardziej trafnych strategii biznesowych. Halucynacje w algorytmach mogą prowadzić do tworzenia planów opartych na błędnych założeniach, co może skutkować nieefektywnymi decyzjami i stratami finansowymi.

  2. Innowacje w modelu biznesu: Firmy mogą wykorzystać algorytmy ML do wprowadzania innowacji w swoich modelach biznesu, takich jak personalizacja oferty, dynamiczne ustalanie cen, czy automatyzacja procesów. Halucynacje w tych algorytmach mogą prowadzić do błędnych decyzji, takich jak niewłaściwe rekomendacje produktowe, błędne ustalenia cen lub niewłaściwe automatyczne przetwarzanie danych.

  3. Optymalizacja zasobów: Menedżerowie mogą wykorzystywać ML do analizy operacji biznesowych i optymalizacji alokacji zasobów. Jeśli algorytm generuje halucynacje, może to prowadzić do nieodpowiedniego przydzielania zasobów, co z kolei może skutkować spadkiem efektywności i zwiększeniem kosztów operacyjnych.

Podobne przykłady halucynacji mogą prowadzić do problemów, zwłaszcza gdy są używane w kontekście generowania treści dla szerokiej publiczności lub w procesach decyzyjnych, gdzie precyzja i prawdziwość danych są kluczowe.

Fot. cottonbro studio: pexels.com

Sztuczna inteligencja uczenia maszynowego (Machine Learning - ML)

Sztuczna inteligencja uczenia maszynowego (Machine Learning - ML) to dziedzina AI, która polega na tworzeniu algorytmów i modeli pozwalających komputerom uczyć się na podstawie danych i podejmować decyzje bez konieczności programowania każdej instrukcji.


Z punktu widzenia Evidence-Based Practice (EBP), ML może odgrywać kluczową rolę poprzez:

  • Analizowanie dużych zbiorów danych medycznych: ML może identyfikować wzorce i predykcje w danych pacjentów, co pomaga w diagnozowaniu i planowaniu leczenia.

  • Syntezowanie wyników badań: Algorytmy ML mogą szybko przetwarzać i integrować wyniki różnych badań, umożliwiając bardziej kompleksowe zrozumienie problemów zdrowotnych.

  • Personalizacja terapii: Dzięki analizie indywidualnych danych pacjentów, ML może wspierać tworzenie spersonalizowanych planów leczenia, zwiększając efektywność interwencji medycznych.

Z punktu widzenia Evidence-Based Management (EBM), ML znajduje zastosowanie poprzez:

  • Optymalizację procesów biznesowych: Algorytmy ML mogą analizować dane operacyjne i sugerować sposoby na poprawę efektywności i redukcję kosztów.

  • Wsparcie decyzji zarządczych: Dzięki analizie historycznych danych biznesowych, ML może przewidywać przyszłe trendy i dostarczać rekomendacji dla menedżerów, co pomaga w podejmowaniu bardziej świadomych decyzji.

  • Analiza danych rynkowych: Algorytmy ML mogą analizować dane rynkowe i konkurencyjne, co wspiera strategie marketingowe i zwiększa szanse na sukces rynkowy.

Machine Learning w kontekście EBP i EBM pomaga w bardziej precyzyjnej analizie danych, wspiera podejmowanie decyzji opartych na dowodach i przyczynia się do zwiększenia efektywności i skuteczności w różnych dziedzinach.

Fot.cottonbro studio: pexels.com

Generative Artificial Intelligence (GenAI)

Generative Artificial Intelligence (ang. generative artificial intelligence, generative AI, GenAI) to dziedzina sztucznej inteligencji, która zajmuje się tworzeniem nowych danych lub treści przy użyciu modeli AI. Obejmuje ona różnorodne technologie i techniki, takie jak generowanie tekstu, obrazów, dźwięków (dzieł sztuki) czy innych form danych. Modele te uczą się na podstawie dużych zbiorów danych i są w stanie tworzyć treści, które często trudno odróżnić od tych stworzonych przez człowieka.

Fot. cottonbro studio https://www.pexels.com

GenAI poza generowaniem kodu, tworzeniem podsumowań czy pomocy w pisaniu e-maili, uzupełnia możliwości edytorów tekstu poprzez automatyczne sprawdzanie stylistyki tekstu, generowanie artykułów, opowiadań, poezji czy innych tekstów. Z naszego punktu widzenia znajduje zastosowanie także w:
  • Evidence-Based Practice (EBP): generowanie rekomendacji, raportów i syntezowanie wyników badań dla wsparcia decyzji w praktyce opartej na dowodach. Oczekuje się, że GenAI w EBP pomoże w szybszym i bardziej precyzyjnym dostępie do najnowszych badań w naukach medycznych, farmacji i zarządzaniu (decyzje menedżerskie), a także ułatwi wdrażanie najlepszych praktyk klinicznych.

  • Evidence-Based Management (EBM): generowanie analiz i raportów dla wsparcia decyzji zarządczych opartych na dowodach. Oczekuje się, że GenAI w EBM przyczyni się do lepszego zarządzania zasobami, optymalizacji procesów biznesowych i zwiększenia efektywności operacyjnej.

W kontekście zarządzania, GenAI może znacząco poprawić efektywność operacyjną i wspierać podejmowanie bardziej świadomych decyzji. Technologia ta nie tylko przyspiesza procesy tworzenia, ale także otwiera nowe możliwości dla kreatywności i innowacji. 

Fot.cottonbro studio: pexels.com

3.01.2025

Unikalne podejście badawcze


Konfraternia Naukowa Badań Dowodowych realizuje unikalne podejście badawcze w naukach o zarządzaniu i jakości. Zespół w składzie Adam Jabłoński, Marek Jabłoński, Daniel Dulęba, Mariusz Glenszczyk oraz Piotr Janulek koncentruje swoją działalność na ewolucyjnym połączeniu metodologii wypracowanych w medycynie opartej na dowodach (Evidence-Based Medicine) z naukami o zarządzaniu.

Fundamentem prac zespołu jest przekonanie, że rygorystyczne metody badawcze stosowane w medycynie i farmacji mogą znacząco podnieść jakość procesu decyzyjnego w zarządzaniu organizacjami. Konfraternia podejmuje pionierskie próby adaptacji metaanaliz i systematycznych przeglądów literatury – metod powszechnie stosowanych w badaniach medycznych – do kontekstu zarządzania przedsiębiorstwami. Jest to podejście szczególnie nowatorskie, ponieważ dotychczas nauki o zarządzaniu opierały się głównie na innych metodach badawczych, często mniej rygorystycznych metodologicznie.

Zespół rozwija koncepcję zarządzania opartego na systematycznych dowodach (Systematic Evidence-Based Management), która może stanowić zalążek nowej subdyscypliny w naukach o zarządzaniu. Można to roboczo nazwać „zarządzaniem opartym na systematycznych dowodach" (Systematic Evidence-Based Management) lub „zarządzaniem wg standardów medycznych" (Medical Standards Management). 

W ramach tej koncepcji, badacze proponują wykorzystanie hierarchii dowodów naukowych, charakterystycznej dla medycyny, w procesie podejmowania decyzji menedżerskich. Podejście to ma na celu zwiększenie obiektywizmu i skuteczności działań zarządczych poprzez oparcie ich na systematycznie weryfikowanych dowodach naukowych.

Konfraternia wprowadza do nauk o zarządzaniu metodologię metaanaliz, która pozwala na uzyskiwanie ilościowych, precyzyjnych i zintegrowanych wniosków z różnorodnych badań. Jest to szczególnie istotne w kontekście rosnącej złożoności problemów zarządczych i potrzeby podejmowania decyzji w oparciu o wiarygodne dane.

Badania zespołu charakteryzują się holistycznym podejściem do nauki, łącząc rygor metodologiczny nauk medycznych z praktycznymi aspektami zarządzania organizacjami. Ta interdyscyplinarna perspektywa pozwala na tworzenie nowych rozwiązań w zakresie badań naukowych i praktyki zarządczej.

Działalność Konfraterni może przyczynić się do istotnych zmian w sposobie prowadzenia badań w naukach o zarządzaniu, wprowadzając wyższe standardy metodologiczne i nowe narzędzia badawcze. W perspektywie praktycznej, prace zespołu mogą doprowadzić do powstania bardziej skutecznych i obiektywnych strategii zarządczych, opartych na systematycznie weryfikowanych dowodach naukowych.

Zespół stoi na stanowisku, że wprowadzenie rygorystycznych standardów metodologicznych do nauk o zarządzaniu jest niezbędne w obliczu rosnącej złożoności współczesnych organizacji i ich otoczenia. Poprzez adaptację sprawdzonych metod z dziedziny medycyny, Konfraternia dąży do podniesienia jakości badań w naukach o zarządzaniu i zwiększenia ich praktycznej użyteczności.

Ta pionierska działalność Konfraterni Naukowej Badań Dowodowych wypełnia istotną lukę w literaturze przedmiotu, tworząc nowe standardy prowadzenia badań naukowych w dziedzinie zarządzania i jakości. Może ona również stanowić podstawę do wykształcenia się nowego paradygmatu w naukach o zarządzaniu, łączącego najlepsze praktyki z różnych dziedzin nauki.

Ewolucyjne połączenie metodologii Evidence-Based Medicine (EBM) z naukami o zarządzaniu i jakości

Połączenie metodologii wypracowanych w medycynie opartej na dowodach (Evidence-Based Medicine) z naukami o zarządzaniu wymaga uwzględnienia różnorodnych źródeł informacji, które wspólnie tworzą spójny i wszechstronny fundament dla podejmowania decyzji. Jednym z kluczowych elementów są badania naukowe, które dostarczają rzetelnych dowodów na skuteczność metod i strategii. Rygorystyczne analizy, takie jak metaanalizy i systematyczne przeglądy literatury, stanowią solidny punkt odniesienia, pozwalając unikać subiektywizmu i opierania się na niepotwierdzonych założeniach.

Drugim istotnym źródłem informacji jest literatura szara , obejmująca raporty, dokumenty robocze, prezentacje oraz inne materiały nienależące do tradycyjnych publikacji naukowych. Choć często mniej formalna, szara literatura dostarcza praktycznego kontekstu i danych, które mogą być kluczowe w analizowaniu realiów zarządzania, szczególnie w sytuacjach, gdzie brakuje publikacji naukowych.

Równie ważne są dane organizacyjne, które pochodzą z wewnętrznych zasobów organizacji, takich jak analizy operacyjne, wskaźniki wydajności czy wyniki badań satysfakcji pracowników. Te dane pozwalają na dostosowanie decyzji do unikalnych warunków i wyzwań, z jakimi mierzy się dana organizacja, co zwiększa skuteczność wdrażanych strategii.

Nie można również pomijać opinii ekspertów, które stanowią cenne źródło wiedzy praktycznej i intuicyjnych spostrzeżeń. Eksperci z doświadczeniem w danej dziedzinie mogą dostarczyć wskazówek, które trudno znaleźć w literaturze lub danych liczbowych, szczególnie w kontekście innowacji czy zarządzania kryzysowego.

Interes interesariuszy odgrywa równie istotną rolę w procesie decyzyjnym. Zarządzanie oparte na dowodach wymaga zrozumienia i uwzględnienia potrzeb, oczekiwań oraz preferencji osób i grup zaangażowanych w działalność organizacji. Dzięki temu możliwe jest budowanie strategii, które nie tylko są efektywne, ale także akceptowane i wspierane przez zainteresowane strony.

Ostatnim, ale równie ważnym aspektem, są czynniki kulturowe. Każda organizacja działa w określonym kontekście kulturowym, który wpływa na sposób podejmowania decyzji, komunikacji i wdrażania zmian. Uwzględnienie aspektów kulturowych pozwala lepiej dopasować strategie zarządcze do lokalnych uwarunkowań i minimalizować ryzyko oporu wobec zmian.

Integracja tych sześciu kolektorów informacji tworzy fundament dla zarządzania opartego na dowodach, które, podobnie jak w medycynie, pozwala na podejmowanie decyzji o wysokiej skuteczności i adekwatności do kontekstu. 

Taka ewolucja metodologiczna sprzyja większej przejrzystości, odpowiedzialności i skuteczności w zarządzaniu, czyniąc organizacje bardziej odporne na wyzwania współczesnego świata.