23.11.2025

Raport wg PRISMA 2000

Zgodnie z podejściem przyjętym w wytycznych PRISMA 2020, raport to dokument — w formie papierowej lub elektronicznej — który przedstawia rzetelnie udokumentowane informacje dotyczące konkretnego badania, procesu analitycznego lub wytworzonych danych. Może przyjmować różne formy, takie jak: artykuł naukowy, preprint, abstrakt konferencyjny, zapis w rejestrze badań, raport z badań klinicznych, rozprawa akademicka, nieopublikowany manuskrypt, dokument rządowy lub inny materiał zawierający istotne treści odnoszące się do badanego zjawiska. W PRISMA 2020 każdy z tych materiałów jest traktowany jako potencjalne źródło dowodów, które może zostać włączone do procesu przeglądu. W kontekście Systematycznego Przeglądu Literatury (SLR) raport stanowi podstawową jednostkę analizy, ponieważ:

  • dostarcza dowodów pierwotnych lub wtórnych,
  • dokumentuje metody, wyniki i wnioski badań,
  • umożliwia ocenę jakości i wiarygodności źródeł,
  • stanowi podstawę do syntetyzowania dowodów zgodnie z procedurami PRISMA 2020, w tym do tworzenia przeglądów narracyjnych, ilościowych lub mieszanych.

W ujęciu Evidence-Based Management (EBM) raport pełni funkcję:

  • nośnika wiedzy opartej na dowodach,
  • źródła wykorzystywanego w procesie podejmowania decyzji menedżerskich,
  • materiału umożliwiającego ocenę wiarygodności, trafności i przydatności informacji dla praktyki organizacyjnej.
Artykuł jest jedynie jedną z możliwych form prezentacji wyników badań, natomiast raport odwołuje się do funkcji dokumentacyjnej — zawiera rzetelnie opisane metody, wyniki i wnioski, niezależnie od tego, czy przyjął formę artykułu, preprintu, rejestru badania, rozprawy czy dokumentu instytucjonalnego.

W obu podejściach — SLR i EBM — raport nie jest zatem jedynie tekstem informacyjnym. Jest transparentnym, uporządkowanym i metodycznie udokumentowanym sprawozdaniem z badania, które umożliwia ocenę jakości pracy badawczej, replikację lub ponowną interpretację wyników oraz ich wykorzystanie w procesach decyzyjnych opartych na dowodach.

Zgodnie z zasadami PRISMA 2020 każdy dokument raportujący wyniki badań — niezależnie od formy publikacji — powinien zawierać jasno opisane, przejrzyste i wystarczające do replikacji informacje dotyczące przebiegu procesu badawczego. PRISMA nie narzuca konkretnego układu (np. IMRaD), ale wymaga, aby raport umożliwiał odbiorcy ocenę wiarygodności i jakości badania.

Źródło

Page Matthew J., McKenzie Joanne E., Bossuyt Patrick M., Boutron Isabelle, Hoffmann Tammy C., Mulrow Cynthia D., Shamseer Larissa, Tetzlaff Jennifer M., Akl Elie A., Brennan Sue E., Chou Roger, Glanville Julie, Grimshaw Jeremy M., Hróbjartsson Asbjørn, Lalu Manoj M., Li Tianjing, Loder Elizabeth W., Mayo-Wilson Evan, McDonald Steve, McGuinness Luke A., Stewart Lesley A., Thomas James, Tricco Andrea C., Welch Vivian A., Whiting Penny, Moher David, The PRISMA 2020 statement: an updated guideline for reporting systematic reviews, „BMJ (Clinical research ed.)“, R. 372 2021, n71.

3.11.2025

Proces ważenia dowodów: czynnik ludzki w zarządzaniu opartym na dowodach

Współczesne zarządzanie coraz częściej mierzy się z paradoksem: im więcej danych, tym mniej pewności, co naprawdę oznaczają. W erze algorytmizacji decyzji i automatyzacji procesów rośnie potrzeba powrotu do człowieka jako podmiotu interpretującego, a nie jedynie wykonawcy procedur. Evidence-Based Management (EBMnt) – zarządzanie oparte na dowodach – wyrasta z przekonania, że skuteczność decyzji organizacyjnych zależy nie od ilości informacji, lecz od umiejętności ich ważenia, czyli krytycznej oceny jakości, adekwatności i znaczenia w kontekście ludzkiego doświadczenia. W tym sensie czynnik ludzki nie jest już źródłem błędu, lecz integralnym składnikiem rzetelności epistemicznej. 

Jednocześnie współczesne praktyki społeczne, w tym zjawiska takie jak cancel culture czy presja poprawności ideologicznej, mogą ograniczać swobodę interpretacji i prowadzić do selektywnego dopuszczania dowodów zgodnych z dominującym nurtem myślenia. Artykuł podejmuje zatem problematykę ważenia dowodów jako procesu poznawczego, emocjonalnego i etycznego zarazem – procesu, w którym decyzje organizacyjne zyskują sens dopiero wtedy, gdy pozostają otwarte na różnorodność perspektyw i wolność refleksyjnego namysłu.

Tolerancja w zarządzaniu zasobami ludzkimi stała się jednym z najczęściej przywoływanych pojęć w organizacyjnym dyskursie. W świecie, w którym różnorodność, inkluzywność i wrażliwość kulturowa stały się fundamentem współczesnych polityk HR, coraz wyraźniej widać potrzebę odejścia od moralizującej retoryki na rzecz metodycznego myślenia. W duchu Evidence-Based Management (EBMnt) tolerancja przestaje być deklaracją wartości, a staje się procesem poznawczym – praktyką ważenia dowodów i świadomego integrowania różnych źródeł wiedzy. Rzetelność w tym kontekście oznacza zdolność nie tylko do rozróżniania faktu od opinii, lecz także do rozumienia ich wzajemnych zależności. Tolerancja jako metoda to sztuka łączenia empirycznej weryfikacji z empatycznym rozumieniem.

Ważenie dowodów jako fundament rzetelności

Metodyka EBMnt zakłada, że żadna decyzja menedżerska, w tym decyzja dotycząca zarządzania różnorodnością, nie może być uzasadniona jednym rodzajem dowodów. Wymaga ona równoczesnego uwzględnienia danych empirycznych, wyników badań, obserwacji organizacyjnych, doświadczenia ekspertów oraz wartości, które kierują ludźmi w miejscu pracy. Tolerancja w HR – jeśli ma być rzeczywista, a nie symboliczna – musi opierać się na takim procesie ważenia. Oznacza to, że każda perspektywa, nawet ta niezgodna z dominującym dyskursem inkluzywności, powinna być analizowana w świetle jej faktycznego wpływu na jakość relacji, zaufanie i dobrostan zespołu. Rzetelność polega tutaj nie na przyznaniu racji wszystkim, lecz na uczciwym ważeniu racji każdej strony.

Ważenie dowodów stanowi kluczowy etap metodologiczny w procesie poznawczym i decyzyjnym, zwłaszcza w kontekście nauk społecznych i psychologii opartej na dowodach. Oznacza ono nie tylko ocenę siły empirycznej danego materiału, lecz także jego relewantności wobec pytania badawczego oraz zgodności z przyjętym paradygmatem naukowym. 
Metodologiczne ważenie dowodów wymaga rozróżnienia między faktami wynikającymi z badań naukowych a interpretacjami o charakterze normatywnym czy światopoglądowym. 
Rzetelne procedury oceny dowodów powinny być transparentne, replikowalne i odporne na wpływy pozamerytoryczne, takie jak presja środowiskowa czy ideologiczna. 
Z perspektywy metodologii nauk empirycznych, eliminowanie głosu badacza ze względu na kontrowersyjność tematów, które bada lub komentuje, stanowi zakłócenie procesu ważenia dowodów, gdyż przenosi kryterium oceny z jakości argumentów na ocenę osoby je przedstawiającej. Właściwe ważenie dowodów wymaga zachowania metodologicznej autonomii nauki, opartej na rozróżnieniu pomiędzy dowodem, opinią i emocją społeczną, tak aby proces poznawczy pozostawał odporny na naciski ideologiczne i zachowywał priorytet rzetelności empirycznej nad oceną światopoglądową.

Rzetelność między inkluzywnością a różnicą

Współczesne programy inkluzywności często promują ideę otwartości na różnorodność, lecz w praktyce bywają zdominowane przez jednoznaczne interpretacje tego, co uznaje się za dopuszczalne.
W kontekście EBMnt inkluzywność nabiera sensu dopiero wtedy, gdy obejmuje również gotowość do rozmowy z tymi, którzy mają wątpliwości wobec jej form lub tempa wprowadzania. 
Rzetelne podejście badawcze nie polega na eliminowaniu głosów sprzeciwu, ale na analizie ich podstaw – czy wynikają z braku informacji, z różnicy kulturowej, czy z odmiennego rozumienia sprawiedliwości. Tolerancja, w tym sensie, jest umiejętnością zachowania poznawczej równowagi między wartościami wspólnotowymi a poszanowaniem autonomii myślenia jednostki. Oznacza zdolność do bycia w dialogu z różnicą, a nie do jej administracyjnego unieważnienia.

Czynnik ludzki jako zmienna epistemiczna

Fot. Karola G | www.pexels.com

Tradycyjne modele zarządzania postrzegały czynnik ludzki głównie jako element niepewności, który utrudnia racjonalne planowanie i kontrolę. Podejście EBMnt redefiniuje tę kategorię: człowiek nie jest już zakłóceniem systemu, lecz jego poznawczym centrum. To ludzie – ze swoimi emocjami, przekonaniami i doświadczeniami – nadają sens danym, przekształcając je w wiedzę. W badaniu tolerancji i inkluzywności w organizacjach czynnik ludzki staje się więc zmienną epistemiczną, czyli czynnikiem wpływającym na sposób interpretacji dowodów. Obejmuje on nie tylko kompetencje poznawcze, ale także zdolność do autorefleksji i uważności emocjonalnej. Rzetelność w HR oznacza zatem gotowość do uwzględniania emocji jako części procesu decyzyjnego, a nie jego przeszkody. To właśnie dzięki emocjom organizacja może rozumieć swoje dane w kontekście ludzkiego doświadczenia.

Tolerancja jako kompetencja poznawcza organizacji

W kontekście EBMnt tolerancja nie jest postawą bierną ani gestem grzeczności – staje się kompetencją poznawczą, zdolnością do współistnienia wielości perspektyw bez utraty spójności działania. Wymaga to kultury organizacyjnej, która ceni krytyczne myślenie, dopuszcza niepewność i zachęca do pytań o sens przyjętych założeń. Tolerancja w takim ujęciu jest formą intelektualnej dojrzałości, która pozwala na tworzenie polityk HR nie z pozycji przekonań, lecz z pozycji rozumienia. Oznacza również umiejętność przekładania danych empirycznych na praktyki społeczne z zachowaniem wrażliwości na ludzką różnorodność. W tym sensie tolerancja jest nie tylko narzędziem etycznym, ale także poznawczym – środkiem do budowania organizacji uczącej się, refleksyjnej i zdolnej do samokorekty.

Checklista ważenia dowodów

Ważenie dowodów to nie tylko procedura decyzyjna: wymaga odwagi, by uznać, że żadne dane — nawet te z AI — nie są neutralne, a żaden człowiek nie jest wolny od błędu. Rzetelność w EBMnt polega na umiejętności utrzymania równowagi między logiką a ludzkim rozumieniem.

1. Identyfikacja problemu decyzyjnego
  1. Czy problem został jasno zdefiniowany w języku faktów, a nie opinii?
  2. Czy rozumiemy, jakie pytanie badawcze lub decyzyjne naprawdę chcemy rozwiązać?
  3. Czy unikamy błędu „rozwiązywania nie tego problemu”, który wydaje się łatwiejszy?
2. Gromadzenie dowodów z różnych źródeł
  1. Czy zebraliśmy dane z czterech kluczowych obszarów EBMnt: badań naukowych, danych organizacyjnych, doświadczenia ekspertów i wartości interesariuszy?
  2. Czy uwzględniono źródła automatyczne (AI, systemy analityczne) oraz ludzkie obserwacje?
  3. Czy istnieje ryzyko nadmiernego zaufania danym z algorytmów lub modelom predykcyjnym bez ich interpretacji kontekstowej?
3. Ocena wiarygodności dowodów
  1. Jakie są źródła danych – pierwotne, wtórne, syntetyczne (AI)?
  2. Czy dane zostały zweryfikowane pod kątem błędów poznawczych, biasów lub manipulacji kontekstem?
  3. Czy istnieje możliwość potwierdzenia wyników przez niezależne źródła?
4. Ważenie dowodów
  1. Jakie znaczenie przypisujemy każdemu rodzajowi dowodów w kontekście danej decyzji?
  2. Czy dowody są aktualne, reprezentatywne i spójne z kontekstem organizacyjnym?
  3. Czy głos praktyków (np. liderów zespołów) został uwzględniony na równi z analizą danych ilościowych?
  4. Czy proces ważenia był transparentny — czy można go uzasadnić przed innymi interesariuszami?
5. Integracja automatyzacji i czynnika ludzkiego
  1. Czy decyzje wspierane przez AI są rozumiane, a nie tylko akceptowane?
  2. Czy model lub system decyzyjny został poddany interpretacji przez człowieka (explainable AI)?
  3. Czy uwzględniono wpływ emocji, wartości i intuicji w interpretacji dowodów?
  4. Czy „czynnik ludzki” jest traktowany jako źródło wiedzy, a nie zakłócenie?
6. Refleksja i decyzja
  1. Czy proces ważenia dowodów doprowadził do decyzji, która jest etyczna, transparentna i uzasadniona?
  2. Czy dokumentujemy, jaką wagę przypisano poszczególnym dowodom?
  3. Czy zespół potrafi uzasadnić swoją decyzję w oparciu o fakty, nie tylko o przekonania?
  4. Czy po decyzji planujemy ewaluację skutków — sprawdzenie, czy dowody rzeczywiście przewidziały efekty?
7. Uczenie się z decyzji
  1. Czy proces ważenia dowodów został omówiony w zespole po fakcie (debriefing)?
  2. Czy organizacja potrafi wprowadzić korekty do sposobu analizy dowodów na przyszłość?
  3. Czy wnioski z tego procesu są włączane do wiedzy organizacyjnej (learning loop)?

Zakończenie: rzetelność, która pozostaje ludzka

Rzetelność w HR, rozumiana w duchu Evidence-Based Management, nie ogranicza się do metodologicznej precyzji. Jej istotą jest zdolność do utrzymania równowagi między nauką a człowiekiem, między danymi a doświadczeniem, między dowodem a zrozumieniem. Ważenie dowodów w obszarze tolerancji i inkluzywności nie jest zatem tylko procesem analitycznym, lecz również etycznym i emocjonalnym – wymaga świadomości, że za każdym zbiorem danych kryją się ludzie, ich wrażliwość i ich poczucie godności. Czynnik ludzki, zamiast być błędem pomiaru, staje się kryterium sensu decyzji. Organizacja, która rozumie tę zasadę, przestaje traktować tolerancję jako formalny obowiązek, a zaczyna postrzegać ją jako przestrzeń rzetelnego poznania. Wówczas zarządzanie oparte na dowodach przestaje być techniką, a staje się kulturą — kulturą, w której dowody są ważone przez rozum, ale interpretowane przez człowieka.

24.10.2025

EFT (opukiwanie) – czy to metoda naukowa? Analiza z perspektywy Evidence-Based Management

W ostatnich latach metoda Emotional Freedom Techniques (EFT), znana szerzej jako „opukiwanie”, zyskała ogromną popularność w środowiskach rozwoju osobistego i psychoterapii alternatywnej. Jej zwolennicy twierdzą, że poprzez delikatne opukiwanie punktów akupresurowych w połączeniu z afirmacjami można „uwolnić blokady energetyczne” i w ten sposób złagodzić stres, lęk, ból czy objawy traumy. Brzmi obiecująco – ale czy rzeczywiście EFT ma naukowe podstawy? Przyjrzyjmy się temu w duchu Evidence-Based Management of Novel Treatments (EBMnt), czyli zarządzania innowacyjnymi metodami w oparciu o dowody naukowe i krytyczną ocenę źródeł.

Co to jest EBMnt i dlaczego jest ważne

EBMnt to podejście wywodzące się z medycyny opartej na dowodach (EBM) i z zarządzania opartego na faktach (Evidence-Based Management). Zakłada ono, że każda nowa metoda – zanim zostanie wdrożona do praktyki – powinna być oceniona pod kątem jakości dowodów, siły efektu, ryzyka oraz zgodności z uznanymi standardami. Innymi słowy, nie wystarczy, że coś „działa” w subiektywnym odczuciu; konieczne jest potwierdzenie skuteczności i bezpieczeństwa w badaniach o wysokiej jakości.

Co mówią badania o EFT

W literaturze naukowej istnieje już kilkadziesiąt badań dotyczących EFT, w tym metaanalizy i przeglądy systematyczne. Niektóre z nich wskazują na potencjalnie korzystne efekty stosowania tej metody w zakresie redukcji stresu, lęku czy objawów pourazowych. Przykładem może być metaanaliza Clond (2016), która wykazała umiarkowane efekty w obniżaniu poziomu lęku, oraz prace Church i współautorów (2018), sugerujące, że EFT może wpływać na reakcje fizjologiczne związane z kortyzolem i stresem.

Jednak większość tych badań ma ograniczoną moc dowodową. Często są to badania o niewielkich próbach, prowadzone przez osoby zaangażowane w popularyzację metody, bez odpowiednich grup kontrolnych i długoterminowej obserwacji. Metodologia nie zawsze spełnia rygory, jakie obowiązują w badaniach klinicznych. W efekcie trudno jest jednoznacznie stwierdzić, że to właśnie „opukiwanie meridianów” odpowiada za uzyskane rezultaty – równie dobrze mogą one wynikać z elementów relaksacji, ekspozycji lub autosugestii.

Status EFT w wytycznych klinicznych

Najbardziej wiarygodnym testem dla każdej metody terapeutycznej jest jej obecność (lub brak) w oficjalnych wytycznych klinicznych uznanych instytucji. W przypadku EFT sytuacja jest jednoznaczna: żadna z wiodących organizacji psychologicznych ani medycznych nie uznaje jej obecnie za metodę opartą na dowodach.

Według American Psychological Association (APA) EFT nie figuruje w rejestrze terapii o potwierdzonej skuteczności w leczeniu PTSD. W oficjalnym dokumencie Clinical Practice Guideline for the Treatment of PTSD in Adults (2023) wskazano jedynie terapie oparte na ekspozycji i poznawcze (m.in. PE, CPT, EMDR).

National Institute for Health and Care Excellence (NICE) w Wielkiej Brytanii umieścił EFT w sekcji „recommendations for research” w wytycznej NG116 (2018). Oznacza to, że metoda jest uznana za wartą dalszych badań, ale nie zalecaną klinicznie w leczeniu PTSD, lęku ani depresji.

Również VA/DoD Clinical Practice Guideline z 2023 roku – opracowana przez amerykański Departament Weteranów i Departament Obrony – nie rekomenduje EFT w leczeniu stresu pourazowego u weteranów. Wskazuje natomiast na terapię poznawczo-behawioralną i ekspozycyjną jako interwencje pierwszego wyboru.

Z kolei Australian Psychological Society (APS) nie wymienia EFT w przeglądach terapii opartych na dowodach. Metoda pojawia się jedynie w publikacjach popularnych jako przykład techniki „komplementarnej”, a nie terapii rekomendowanej klinicznie.

Podsumowując, w żadnych oficjalnych wytycznych EFT nie ma statusu terapii evidence-based. Najczęściej jest klasyfikowana jako metoda eksperymentalna, alternatywna lub komplementarna, wymagająca dalszej walidacji.

Mechanizm działania – nauka czy metafora?

Zwolennicy EFT utrzymują, że opukiwanie aktywuje przepływ energii wzdłuż tzw. meridianów, znanych z medycyny chińskiej. Problem polega na tym, że współczesna nauka nie potwierdziła istnienia takich struktur biologicznych. Nie ma dowodów na to, że „blokady energetyczne” istnieją w sensie fizjologicznym. Z perspektywy psychologicznej prawdopodobne jest, że skutki EFT wynikają z mechanizmów znanych z terapii poznawczo-behawioralnych – ekspozycji na trudne emocje, regulacji oddechu, autosugestii i relaksacji.

W tym sensie EFT może działać, ale nie dlatego, że „odblokowuje energię”, lecz dlatego, że uczy ciało i umysł reagować inaczej na stres. To ważne rozróżnienie, które odróżnia naukową interpretację od metaforycznej.

Wnioski w duchu EBMnt

Z perspektywy Evidence-Based Management of Novel Treatments metoda EFT może być uznana za innowacyjną interwencję wspierającą, jednak nie spełnia kryteriów terapii opartej na dowodach naukowych. Wdrożenie jej w praktyce organizacyjnej czy terapeutycznej wymaga zachowania transparentności wobec klientów oraz systematycznego monitorowania efektów. Powinna być stosowana jako technika pomocnicza – na przykład w obszarze redukcji stresu lub poprawy samoregulacji emocjonalnej – a nie jako substytut terapii klinicznej.

Zarządzanie oparte na dowodach zakłada, że decyzje dotyczące stosowania innowacyjnych metod nie mogą opierać się na intuicji czy modzie, lecz na analizie jakości badań, rekomendacji i ryzyka. W przypadku EFT dane naukowe są nadal niejednoznaczne. Odpowiedzialny lider, terapeuta czy instytucja powinni więc stosować zasadę ostrożności: eksperymentować, ale nie obiecywać więcej, niż potwierdzają fakty.

Źródła

  1. American Psychological Association – Clinical Practice Guideline for the Treatment of PTSD in Adults

  2. National Institute for Health and Care Excellence (NICE) – Post-traumatic stress disorder: management (NG116)

  3. NICE – Research recommendation: What is the clinical and cost-effectiveness of Emotional Freedom Techniques (EFT) for the treatment of PTSD in adults?

  4. U.S. Department of Veterans Affairs / Department of Defense – VA/DoD Clinical Practice Guideline for the Management of PTSD

  5. Australian Psychological Society – Evidence-based Psychological Interventions: A Literature Review

  6. Church, D., Stapleton, P., Dawson, R., & Feinstein, D. – Clinical EFT as an evidence-based practice for the treatment of psychological and physiological conditions: A systematic review

  7. Clond, M. – Emotional Freedom Techniques for anxiety: A systematic review with meta-analysis

  8. Feinstein, D. – Energy psychology: Efficacy, speed, mechanisms

8.10.2025

Dowody w kodzie XML: jak FA(3) i KSeF 2.0 uczą przedsiębiorców zarządzania opartego na na dowodach

Wdrożenie standardu FA(3) w ramach Krajowego Systemu e-Faktur (KSeF 2.0) staje się dla polskich przedsiębiorców laboratorium zarządzania opartego na dowodach. Artykuł pokazuje, że nowa generacja faktury ustrukturyzowanej nie jest tylko techniczną zmianą formatu danych, ale katalizatorem głębszej transformacji procesowej i kulturowej. Na przykładzie wdrożeń FA(3) autor wskazuje nowy obszar badań, nad tym jak precyzyjne dane, automatyczne walidacje i integracje API wymuszają spójność procesów, eliminują błędy interpretacyjne i budują fundamenty skutecznych decyzji. W tekście przedstawiono paradoks automatyzacji — moment, w którym technologia, zamiast upraszczać, ujawnia chaos poznawczy organizacji — oraz pokazano, jak myślenie evidence-based (EBMnt) może przekształcić tę trudność w przewagę strategiczną.

W 2025 roku polscy przedsiębiorcy znaleźli się w punkcie, w którym technologia podatkowa przestała być domeną księgowych, a zaczęła dotykać strategii zarządzania. FA(3) — nowy format faktury ustrukturyzowanej w ramach KSeF 2.0 — nie jest tylko aktualizacją pliku XML. To poligon, na którym spotykają się dane, dowody i decyzje.

Problem, który z pozoru wydaje się techniczny, w rzeczywistości jest głęboko zarządczy: czy organizacja potrafi podejmować decyzje oparte na dowodach (EBMnt), gdy dowodem staje się każdy zapis w systemie fakturowym?

Dane zamiast deklaracji

W tradycyjnym podejściu faktura była potwierdzeniem transakcji — papierowym śladem. W FA(3) staje się elementem ekosystemu danych, który komunikuje się bezpośrednio z państwowym rejestrem, ERP czy bankiem. To już nie dokument, lecz zdarzenie w czasie rzeczywistym.
W tym świecie nie ma miejsca na „na końcu miesiąca zobaczymy”. Dane są natychmiast weryfikowalne, a błędne mapowanie pól czy złe metadane oznaczają natychmiastowy chaos w analizie cash flow i raportowaniu.

Paradoks automatyzacji

FA(3) miał ułatwić życie — i faktycznie zautomatyzuje wiele procesów. Ale równocześnie wymaga, by organizacja wiedziała, co naprawdę wie o swoich fakturach. W jednej z firm (fikcyjny, ale realny przypadek modelowy) wdrożenie FA(3) ujawniło, że różne działy operują czterema różnymi definicjami „momentu sprzedaży”. Dopiero integracja z KSeF wymusiła wspólne zdefiniowanie procesu — nie dlatego, że ktoś kazał, ale dlatego, że system nie przyjął sprzecznych danych.

Evidence-Based Management w akcji

Zarządzanie oparte na dowodach (EBMnt) zakłada, że każda decyzja biznesowa powinna być osadzona w czterech rodzajach źródeł:

  1. w najlepszych dostępnych danych naukowych, 
  2. w danych organizacyjnych, 
  3. w profesjonalnym osądzie menedżerów oraz
  4. w wartościach i kontekście interesariuszy. 
To nie jest teoria z podręcznika — to mapa, którą FA(3) właśnie ożywia w praktyce.

Dane naukowe pokazują, że automatyzacja fakturowania potrafi zmniejszyć koszty administracyjne. Ok, ale czy zastanawiałeś się, ile dokładnie możesz zaoszczędzić dzięki automatyzacji fakturowania w swojej firmie? Jak wysoka jest jakość danych wejściowych w Twoim CRM i systemie finansowym — ile z nich jest spójnych, a ile zawiera błędy? Czy różnice między systemami generują dodatkową pracę ręczną, której można by uniknąć? Jak dużo czasu zajmuje poprawianie nieprawidłowych faktur i jakie koszty generuje ta interwencja? Które pola danych możesz automatyzować bez ryzyka utraty dokładności i kontroli? Jakie badania naukowe pokazują rzeczywisty wpływ automatyzacji fakturowania na koszty administracyjne? Jaką metodologię stosowano w takich badaniach i jakie kryteria jakości danych brano pod uwagę? Czy istnieją analizy porównujące skuteczność różnych sposobów integracji CRM z systemami finansowymi w kontekście FA(3) i KSeF 2.0? Jakie wskaźniki warto mierzyć, aby ocenić, czy automatyzacja faktycznie przynosi obniżenie kosztów i zwiększenie efektywności? Jak zaprojektować własne badanie w organizacji, żeby w sposób wiarygodny oszacować wpływ FA(3) na procesy finansowe? Te pytania mają skłonić do sięgnięcia do literatury lub opracowania własnego projektu badawczego, zanim wyciągnie się wnioski o efektywności automatyzacji fakturowania.

Dane organizacyjne to drugi filar. W FA(3) nabierają one wyjątkowego znaczenia, bo każda faktura staje się staje się węzłem informacji o przebiegu całego procesu (narzędziem monitorowania i analizy procesu) — od zamówienia po płatność. Przedsiębiorstwa, które potraktuję te dane jako element wiedzy o sobie, a nie wyłącznie obowiązek raportowy, zaczną wykorzystywać je do prognozowania płynności finansowej, monitorowania rotacji dostawców czy analizy czasu obiegu dokumentu.

Trzecie źródło, profesjonalny osąd menedżerów, to moment, w którym technologia spotyka człowieka. Decyzja o tym, czy wdrażać KSeF samodzielnie, czy korzystać z integratora, wymaga nie tylko znajomości technologii, ale też oceny kompetencji zespołu i ryzyka przestoju. Gdyby spółka IT zdecydowała się wdrożyć system samodzielnie, mogłaby osiągnąć szybki sukces, ale równie dobrze mogłaby napotkać opóźnienia, jeśli zespół nie byłby wystarczająco przygotowany. W przypadku firmy produkcyjnej podobna decyzja mogłaby skutkować dwumiesięcznym paraliżem fakturowania, opóźnieniami w płatnościach lub koniecznością częściowej korekty procesów. W innych scenariuszach możliwe jest stopniowe wdrożenie z minimalnym ryzykiem lub skorzystanie z partnera zewnętrznego, co mogłoby przyspieszyć adaptację, ale zwiększyć koszty. W każdym z tych przypadków automatyzacja nie zastępuje osądu menedżerów — raczej testuje ich zdolność do przewidywania skutków i wyboru najlepszego scenariusza.

Czwartym obszarem jest kontekst interesariuszy. FA(3) unaocznia, że „faktura” nie znaczy tego samego dla wszystkich. Dla księgowego to dowód księgowy, dla handlowca — potwierdzenie zamknięcia transakcji, a dla dyrektora finansowego — element cash flow. Wymóg jednolitego zapisu danych zmusza te światy do dialogu i ustalenia wspólnego języka. W modelowej organizacji taki dialog zakończy się powstaniem zespołu „Data Alignment Team”, który czuwa nad spójnością pojęć w całym przedsiębiorstwie.

Dowód, który zmienia kulturę

Najciekawsze w FA(3) jest to, że zmusza do myślenia dowodowego. Nie da się już dowolnie opisać faktury — trzeba ją precyzyjnie zdefiniować. Nie da się poczekać na podpis czy poprawkę — system przyjmuje lub odrzuca natychmiast. Nie można pomylić się o dwa dni, bo daty są walidowane automatycznie. W tym rygorze kryje się ogromna wartość: organizacje, które nauczą się działać w środowisku dowodowym, będą nie tylko szybciej i sprawniej rozliczać transakcje, ale też trafniej podejmować decyzje strategiczne.

Nie faktura, lecz lekcja

FA(3) nie jest końcem cyfryzacji — to jej dojrzała forma. Wymusza porządek, ale w zamian daje przejrzystość. Dla przedsiębiorcy, który jeszcze dziś postrzega KSeF 2.0 jako obowiązek, już jutro może okazać się, że zyskał bezcenne źródło danych o własnym biznesie: kto naprawdę generuje największe przychody, gdzie ginie marża, które procesy najbardziej obciążają zespół. 

W epoce, w której dane stają się dowodem, a dowód — decyzją, faktura przestaje być zwykłym papierem. 

Informacje w niej zawarte stają się wiarygodnym dowodem przebiegu procesów biznesowych, pozwalającym na podejmowanie świadomych decyzji. W efekcie faktura przekształca się w punkt zwrotny w kulturze zarządzania, który umożliwia monitorowanie, analizę i optymalizację działań w organizacji.

Źródło: 

  1. Janulek P., Co to jest struktura logiczna FA(3). https://ksiegowyinternetowy.blogspot.com/2025/10/co-to-jest-struktura-logiczna-fa3.html [2025-10-08]
  2. Janulek, P. (2025, październik). KSeF 2.0 – co to oznacza dla Twojej firmy, zespołu i systemów? [Wydarzenie online]. Facebook. https://www.facebook.com/events/
  3. https://ksef.podatki.gov.pl/ [2025-10-08]

6.10.2025

Używalność EBMnt w perspektywie prakseologicznej

Z perspektywy prakseologii, rozumianej za Kotarbińskim jako nauka o sprawnym działaniu, każdy system zarządzania jest wart tyle, ile jego zdolność do skutecznego i ekonomicznego osiągania celów. Evidence-Based Management nowej translacji (EBMnt) stanowi w tym sensie próbę połączenia racjonalności naukowej z racjonalnością praktyczną — próbę, która wychodzi naprzeciw kryzysowi efektywności współczesnych organizacji.

1. Od racji działania do dowodu działania

EBMnt, w przeciwieństwie do klasycznego Evidence-Based Management, nie koncentruje się wyłącznie na wykorzystaniu „dowodów naukowych” jako zewnętrznego źródła legitymizacji decyzji. Nowa translacja zakłada, że dowód sam w sobie jest formą działania — interakcją między danymi, kontekstem i interpretacją. 

W ujęciu prakseologicznym dowód staje się nie tylko informacją, ale także narzędziem usprawniającym działanie

Jego używalność mierzy się nie stopniem obiektywności, lecz zdolnością do zwiększania skuteczności decyzji w określonym systemie działania.

2. Sprawność systemowa zamiast racjonalności proceduralnej

Prakseologia odróżnia skuteczność od sprawności — ta druga zawiera także elementy ekonomiczności, celowości i harmonii środków. EBMnt odpowiada temu rozróżnieniu, przesuwając punkt ciężkości z metodologicznej poprawności na systemową używalność. Dane, fakty i modele nie są tu „świętością”, lecz materiałem do praktycznej translacji — do przetworzenia w wiedzę użyteczną. Skuteczne zastosowanie EBMnt nie wymaga więc idealnej bazy dowodów, lecz zdolności do ich reinterpretacji w kontekście konkretnej decyzji. W tym sensie EBMnt staje się narzędziem samoregulującym system działania — nie przepisem, lecz heurystyką sprawności.

3. Używalność jako miara wartości dowodu

W ujęciu prakseologicznym wartość każdego środka mierzy się jego przydatnością do celu. EBMnt redefiniuje „dowód” nie jako element prawdy, ale jako zasób działania. Dowód użyteczny to taki, który umożliwia szybsze, trafniejsze lub bardziej adekwatne działanie. EBMnt wprowadza tu zasadę translacyjności: dowód naukowy musi zostać przetłumaczony na język operacyjny organizacji, uwzględniający lokalne konteksty, ograniczenia i kulturę. Dopiero wówczas może wejść w obieg sprawnego działania.


4. Błędy poznawcze jako zakłócenia sprawności

Z perspektywy prakseologicznej błędy poznawcze i halucynacje decyzyjne (np. wynikające z nadmiernego zaufania do AI lub danych) stanowią nie tyle problem epistemiczny, ile problem sprawności. EBMnt, dzięki swojej translacyjnej naturze, umożliwia identyfikowanie tych błędów jako zakłóceń przepływu informacji w systemie działania. W tym sensie używalność EBMnt polega na zdolności do samokorekty — do przywracania harmonii między intencją, środkiem i rezultatem.

5. Ku prakseologii dowodowego działania

EBMnt można postrzegać jako projekt prakseologii drugiego rzędu: zamiast analizować, jak działać sprawnie, pyta jak działać dowodowo. Działanie dowodowe nie polega na gromadzeniu danych, lecz na projektowaniu decyzji w taki sposób, by ich skuteczność była obserwowalna, mierzalna i odtwarzalna. Tym samym EBMnt realizuje zasadę prakseologiczną sprzężenia zwrotnego — każda decyzja jest jednocześnie eksperymentem, a każde doświadczenie zasila system dowodowy organizacji.

Zakończenie

Używalność EBMnt nie polega na tym, że dostarcza on lepszych dowodów, lecz że pozwala lepiej działać z dowodami. W logice prakseologicznej jest to przejście od myślenia o „wiedzy jako zasobie” do myślenia o „dowodzie jako procesie”. W tym sensie EBMnt nie jest teorią zarządzania, lecz technologią sprawności — mechanizmem, który czyni działanie bardziej samoświadomym, a przez to bardziej skutecznym.

Decyzjofonia, legitomgła i przejrzystoza

Te trzy pojęcia — choć brzmią groteskowo — opisują realne napięcia w kulturze decyzyjnej. Warto je potraktować nie jako żart językowy, lecz jako punkty wyjścia do badań empirycznych. Bo jeśli chcemy projektować lepsze praktyki — w zarządzaniu, komunikacji, dziennikarstwie danych — musimy najpierw nazwać to, co dziś działa źle.

Proponujemy trzy pojęcia — karkołomne, pionierskie, ale trafne — które mogą pomóc uchwycić napięcia współczesnej kultury decyzyjnej: decyzjofonia (decisionophony), legitomgła (legitfog) i przejrzystoza (transparencosis).

Decyzjofonia: nadprodukcja bez uzasadnienia

Decyzjofonia to stan, w którym decyzje mnożą się w rytmie komunikatów, ale ich sens tonie w hałasie. Organizacje, instytucje i liderzy podejmują działania, publikują stanowiska, ogłaszają zmiany — ale bez jasnego uzasadnienia, bez źródeł, bez kontekstu. W efekcie odbiorcy nie wiedzą, czy decyzja jest trafna, czy tylko efektowna. Warto zbadać, jak decyzjofonia wpływa na zaufanie, efektywność i zdolność do uczenia się w organizacjach.

Legitomgła: rozmycie legitymacji

Legitomgła to zjawisko, w którym decyzje są formalnie poprawne, ale ich uzasadnienie jest nieczytelne. Dane są ukryte, źródła niejawne, język technokratyczny. Decyzja „jest”, ale nie wiadomo przez kogo, na jakiej podstawie i po co. To nie tylko problem komunikacyjny — to kryzys legitymacji. Badania nad legitomgłą mogłyby pokazać, jak różne grupy odbiorców (np. pracownicy, obywatele, klienci) rozpoznają i oceniają przejrzystość decyzji.

Przejrzystoza: pozorna transparentność

Przejrzystoza to choroba organizacyjna, w której wszystko jest „transparentne”, ale nic nie jest dostępne. Deklaracje otwartości mnożą się, ale dane są nieczytelne, raporty niekompletne, a procesy decyzyjne zamknięte. To zjawisko wymaga krytycznej analizy: jak rozpoznać przejrzystość pozorną, jakie są jej symptomy i jak ją mierzyć? Przejrzystoza może być szczególnie groźna w instytucjach publicznych, gdzie deklaracje mają zastępować realne działania.

W świecie, który produkuje decyzje szybciej niż potrafi je uzasadnić, rośnie potrzeba nie tylko nowych narzędzi analitycznych, ale też nowego języka. Bo jak opisać zjawiska, które są powszechne, ale wciąż wymykają się klasyfikacji? 

Odpowiedź na kryzys zaufania do decyzji: Data journalism

W świecie, w którym decyzje podejmowane są szybciej niż kiedykolwiek, a dostęp do informacji jest niemal nieograniczony, rośnie paradoks: mimo nadmiaru danych, zaufanie do decyzji — zarówno politycznych, biznesowych, jak i medialnych — spada. Ludzie coraz częściej pytają: „Na jakiej podstawie to zostało ustalone?”, „Czy to jest prawda?”, „Kto to sprawdził?”. W tym kontekście data journalism i Evidence-Based Management nie są tylko technikami — są odpowiedzią na kryzys legitymacji (deficyt przejrzystości).

Data journalism, czyli dziennikarstwo oparte na danych, powstało jako reakcja na rosnącą potrzebę przejrzystości w mediach. Zamiast opierać się na opiniach czy pojedynczych relacjach, dziennikarze analizują zbiory danych, pokazują wzorce, wizualizują zależności i ujawniają systemowe problemy. To nie tylko forma narracji — to metoda weryfikacji.

Evidence-Based Management, z kolei, to podejście do zarządzania, które zakłada, że decyzje powinny być podejmowane na podstawie najlepszych dostępnych dowodów: badań naukowych, danych organizacyjnych, doświadczenia praktyków i wartości interesariuszy. To nie jest moda — to konieczność w świecie, gdzie intuicja bywa zawodna, a presja decyzyjna ogromna.

W świecie, gdzie każdy może mówić wszystko — liczy się tylko to, co można pokazać.

Obie praktyki — dziennikarstwo danych i EBMnt — odpowiadają na ten sam problem: jak podejmować decyzje, które są nie tylko skuteczne, ale też uzasadnione? Jak budować zaufanie w świecie, w którym każdy może mówić wszystko, ale nie każdy potrafi pokazać, skąd to wie?

Fot. Mido Makasardi | pexels.com

Wspólnym mianownikiem jest metodologia. Zarówno dziennikarz, jak i menedżer muszą umieć formułować pytania badawcze, dobierać źródła, analizować dane i komunikować wyniki w sposób zrozumiały. Muszą też być gotowi na rewizję — bo dane nie są dogmatem, lecz punktem wyjścia do rozmowy.

W praktyce, data journalism może wspierać EBMnt w wielu obszarach: raporty o rynku pracy mogą pomóc działom HR w projektowaniu polityki zatrudnienia; analizy budżetowe publikowane przez media mogą zwiększać presję na transparentność w sektorze publicznym; wizualizacje dotyczące zdrowia psychicznego mogą wpływać na decyzje strategiczne w firmach.

Ale to działa też w drugą stronę. Organizacje, które stosują EBMnt, generują dane, które mogą zasilać dziennikarstwo danych. Tworzy się ekosystem, w którym decyzje są nie tylko podejmowane, ale też komunikowane w sposób przejrzysty, weryfikowalny i odpowiedzialny.

Schemat stworzony przy użyciu Microsoft Copilot (2025), na podstawie instrukcji autora.


W świecie, w którym zaufanie jest walutą, a dane są surowcem, data journalism i Evidence-Based Management nie konkurują ze sobą. One mówią tym samym językiem — językiem faktów, który pozwala budować decyzje, które mają sens.

Neuroróżnorodność w rekrutacji: empatia, kompetencje i granice pseudonauki

Dyskusje o neuroróżnorodności w miejscu pracy coraz częściej pojawiają się w kontekście rekrutacji. To pozytywny sygnał — rośnie świadomość, że osoby neuroatypowe (np. z ADHD, autyzmem, dysleksją) mogą funkcjonować inaczej, ale równie skutecznie. Jednak czasem ta rozmowa skręca w stronę, która bardziej przypomina pseudonaukę niż profesjonalne podejście oparte na faktach.

Wyobraźmy sobie sytuację: kandydat w rozmowie rekrutacyjnej odpowiada zdawkowo, nie na temat, trudno nawiązać kontakt. W komentarzach pojawiają się głosy: „Może ta osoba jest neuroatypowa, bądź bardziej wyrozumiała!” albo „Nie przyszło Ci do głowy, że to może być autyzm?”. Intencja — empatia — jest cenna. Ale czy wystarczy, by zignorować wymagania stanowiska?

Tu właśnie pojawia się napięcie między dwoma podejściami. Z jednej strony mamy reakcje emocjonalne, często oparte na domniemaniach, które zakładają, że każde nietypowe zachowanie musi wynikać z neuroróżnorodności. Z drugiej strony — profesjonalne podejście, które nie ignoruje empatii, ale opiera się na faktach, obserwacjach i wymaganiach konkretnej roli.

Pseudonaukowe podejście zakłada, że nietypowe zachowanie to automatycznie sygnał neuroatypowości. W efekcie może prowadzić do faworyzowania kandydatów na podstawie przypuszczeń, a nie kompetencji. Co gorsza, może też prowadzić do niesprawiedliwego traktowania innych kandydatów, którzy nie wpisują się w ten schemat. To podejście ignoruje realne potrzeby stanowiska i odrzuca obiektywne kryteria oceny.
Empatia nie polega na rezygnacji z kryteriów — polega na mądrym ich zastosowaniu.
Z kolei podejście oparte na EBM — Evidence-Based Management — nie zakłada przyczyn bez dowodów. Jeśli komunikacja jest trudna, rekruter może dostosować formę rozmowy (np. pytania pisemne, zadania praktyczne), ale nadal ocenia realne kompetencje. Empatia nie wyklucza profesjonalizmu. Wręcz przeciwnie — pozwala stworzyć warunki, w których każdy kandydat może pokazać swoje mocne strony, bez obniżania standardów.


Warto więc pamiętać, że:
  • neuroróżnorodność nie zwalnia z oceny kompetencji,
  • empatia nie oznacza rezygnacji z wymagań,
  • profesjonalizm nie wyklucza zrozumienia.
Fot. Tara Winstead | pexels.com

Rekrutacja to nie test neurotypu, lecz ocena dopasowania do roli. Jeśli komunikacja jest kluczowa, to musi być oceniana. Jeśli nie jest — można ją obejść, ale nie ignorować. I choć ciekawość co do neuroatypowości może się pojawić, nie może wpływać na decyzję, jeśli nie ma związku z kompetencjami.

Dla menedżera HR podejście oparte na EBM (Evidence-Based Management) to nie tylko narzędzie oceny, ale sposób na budowanie sprawiedliwego i skutecznego procesu rekrutacyjnego. Dzięki EBM można projektować rozmowy kwalifikacyjne tak, by były bardziej trafne diagnostycznie — czyli faktycznie mierzyły to, co ma znaczenie dla danego stanowiska. Zamiast polegać na intuicji czy stereotypach, menedżer korzysta z danych, obserwacji i sprawdzonych metod, by ocenić kompetencje kandydata. To podejście pozwala też lepiej dokumentować decyzje rekrutacyjne, co jest szczególnie ważne w kontekście zgodności z przepisami prawa pracy i polityką równego traktowania. W praktyce EBM pomaga oddzielić to, co istotne (np. zdolność do współpracy, rozwiązywania problemów), od tego, co powierzchowne (np. styl komunikacji odbiegający od normy), dając szansę każdemu kandydatowi na uczciwą ocenę.

Zanim zaprojektujesz proces rekrutacyjny, zapoznaj się z aktualnymi badaniami dotyczącymi skutecznych metod oceny kompetencji, wpływu neuroróżnorodności na funkcjonowanie zawodowe oraz praktyk HR wspierających inkluzywność. Korzystaj z recenzowanych źródeł (np. Sustainability, Equality, Diversity and Inclusion, Academy of Management Review) oraz studiów przypadków firm wdrażających programy neuroinkluzji. Ten etap pozwala uniknąć błędnych założeń, pseudonaukowych uproszczeń i nieświadomej dyskryminacji. To także punkt wyjścia do tworzenia narzędzi oceny, które są trafne, sprawiedliwe i zgodne z aktualną wiedzą.

W tym sensie neuroróżnorodność nie jest wymówką — jest zaproszeniem do mądrzejszego projektowania procesów rekrutacyjnych. Takich, które nie bazują na domysłach, lecz na sprawdzonych danych. Które nie ulegają emocjom, lecz opierają się na świadomej obserwacji. Które nie dryfują w stronę pseudonauki, lecz zakorzeniają się w rzetelnej, empatycznej praktyce.

15.09.2025

Leksykon jako narzędzie zarządzania wiedzą w Evidence-Based Management

Evidence-Based Management (EBM) zakłada podejmowanie decyzji w oparciu o najlepsze dostępne dowody — empiryczne, eksperckie i kontekstowe. W tym procesie niezbędne jest narzędzie, które porządkuje pojęcia, umożliwia ich jednoznaczną interpretację i wspiera komunikację międzydziedzinową. Leksykon, jako uporządkowany zbiór terminów, definicji i kontekstów, może pełnić rolę epistemicznego interfejsu między teorią a praktyką.

Leksykon w kontekście Evidence-Based Management nie jest jedynie narzędziem porządkującym terminologię — stanowi on fundamentalny komponent systemu zarządzania wiedzą, który integruje logikę poznania z praktyką organizacyjną. Jego funkcja wykracza poza klasyczne rozumienie słownika: leksykon nie tylko definiuje pojęcia, lecz także organizuje ich znaczenia w sposób zgodny z paradygmatem dowodowym, umożliwiając ich zastosowanie w procesach decyzyjnych, komunikacyjnych i regulacyjnych.

Z epistemologicznego punktu widzenia, leksykon pełni rolę stabilizatora znaczeń w środowisku poznawczo złożonym. W praktyce EBM, gdzie decyzje podejmowane są na podstawie danych empirycznych, ekspertyz i kontekstu organizacyjnego, precyzyjne rozumienie pojęć jest warunkiem koniecznym trafności i skuteczności działania. Leksykon umożliwia redukcję niejednoznaczności, wspiera interpretację danych oraz pozwala na rekonstrukcję intencji komunikacyjnych w sposób zgodny z logiką dowodu. W tym sensie stanowi on narzędzie epistemicznego porządku — nie tylko opisuje rzeczywistość, lecz także ją współtworzy poprzez selekcję, klasyfikację i profilowanie znaczeń.

Z perspektywy teorii systemów, leksykon można traktować jako subsystem organizacyjny, który reguluje przepływ informacji między aktorami instytucjonalnymi. W organizacjach opartych na dowodach, takich jak instytucje publiczne, NGO czy zespoły projektowe, leksykon pełni funkcję semantycznego interfejsu — umożliwia komunikację między subsystemami (np. prawnym, medycznym, administracyjnym) poprzez standaryzację języka i struktur pojęciowych. Dzięki temu możliwe jest nie tylko uspójnienie komunikacji, lecz także zwiększenie efektywności operacyjnej i zgodności regulacyjnej. Leksykon działa tu jako mechanizm redukcji złożoności — upraszcza środowisko decyzyjne, umożliwiając szybkie rozpoznanie i zastosowanie właściwych procedur, norm i interpretacji.

Warto również podkreślić, że leksykon w EBM nie jest strukturą statyczną. Jako narzędzie systemowe, powinien być projektowany w sposób otwarty, umożliwiający jego aktualizację, adaptację i rozszerzanie w odpowiedzi na zmieniające się warunki organizacyjne, prawne i społeczne. W tym sensie leksykon staje się nie tylko repozytorium wiedzy, lecz także mechanizmem organizacyjnego uczenia się — dokumentuje ewolucję praktyk, ujawnia napięcia definicyjne i wspiera procesy refleksji nad standardami działania.

Epistemologiczne podstawy leksykonu

Leksykon w EBM nie jest jedynie narzędziem językowym — jego struktura i funkcje wynikają z określonego modelu poznania:

  • Poznanie jako system interpretacyjny: W ujęciu konstruktywistycznym znaczenie pojęć jest konstruowane w interakcji między podmiotem poznającym a kontekstem działania. Leksykon porządkuje te konstrukty, nadając im stabilność operacyjną.
  • Redukcja niejednoznaczności: W środowiskach decyzyjnych (np. prawo pracy, świadczenia społeczne, NGO) pojęcia często funkcjonują w sposób wieloznaczny. Leksykon pełni funkcję epistemicznego filtra, który redukuje niejednoznaczność i wspiera trafność decyzji.
  • Odzwierciedlenie logiki dowodu: Hasła leksykonu powinny być konstruowane zgodnie z zasadami logiki formalnej i empirycznej — tj. zawierać przesłanki, źródła, konteksty użycia i potencjalne ograniczenia interpretacyjne.

Teoria systemów a funkcja leksykonu

Z perspektywy teorii systemów (np. Niklas Luhmann, Stafford Beer), leksykon można traktować jako subsystem zarządzania wiedzą w organizacji:

  • System komunikacyjny: Leksykon organizuje przepływ informacji między aktorami systemu — np. między działem HR a działem prawnym, między NGO a instytucją publiczną.
  • Redukcja złożoności: Leksykon redukuje złożoność środowiska decyzyjnego poprzez standaryzację pojęć i ich interpretacji.
  • Autopojeza semantyczna: Systemy społeczne wytwarzają własne znaczenia. Leksykon dokumentuje i porządkuje te znaczenia, umożliwiając ich replikację i transfer między kontekstami.

Struktura hasła leksykonowego

Każde hasło powinno zawierać:

  1. Formę hasłową: np. „świadczenie rehabilitacyjne”, „refundacja składek ZUS”, „NGO”.
  2. Definicję:
    • klasyczną: zgodną z aktami prawnymi,
    • kognitywną: jak pojęcie funkcjonuje w praktyce,
    • systemową: jak pojęcie wpływa na przepływ informacji i decyzji w organizacji.
  3. Profilowanie znaczeniowe: np. „świadczenie rehabilitacyjne” w kontekście medycznym oznacza kontynuację leczenia, a w kontekście prawnym — świadczenie wypłacane przez ZUS po zakończeniu zasiłku chorobowego.
  4. Źródła:
    • systemowe: ustawy, rozporządzenia,
    • tekstowe: publikacje naukowe, raporty,
    • ankietowe: badania opinii praktyków.
  5. Kwalifikatory: np. etymologia, gramatyka, konotacje, przykłady użycia w dokumentach urzędowych.

Przykładowe hasła

  1. Refundacja składek ZUS
    Definicja klasyczna: Zwrot części składek na ubezpieczenia społeczne finansowanych przez pracodawcę, możliwy w przypadku zatrudnienia osoby z orzeczeniem o niepełnosprawności.
    Źródło: Ustawa z dnia 27 sierpnia 1997 r. o rehabilitacji zawodowej i społecznej oraz zatrudnianiu osób niepełnosprawnych.
    Profilowanie: W praktyce może oznaczać zarówno zwrot miesięczny, jak i roczny, zależnie od formy zatrudnienia i rodzaju niepełnosprawności.

  2. NGO (organizacja pozarządowa)
    Definicja: Podmiot działający w sferze pożytku publicznego, niezależny od administracji rządowej, często wykorzystywany jako forma organizacyjna w projektach społecznych i edukacyjnych.
    Profilowanie: W kontekście EBM NGO może pełnić rolę operatora projektów badawczych, edukacyjnych lub świadczeniowych, np. w zakresie aktywizacji zawodowej osób z niepełnosprawnościami.

  3. Świadczenie rehabilitacyjne
    Definicja: Świadczenie wypłacane przez ZUS osobie, która po zakończeniu okresu zasiłku chorobowego nadal wymaga leczenia i nie jest zdolna do pracy.
    Źródło: Ustawa z dnia 25 czerwca 1999 r. o świadczeniach pieniężnych z ubezpieczenia społecznego w razie choroby i macierzyństwa.
    Profilowanie: W praktyce często mylone z zasiłkiem chorobowym; wymaga odrębnego wniosku i zaświadczenia lekarskiego.

Interdyscyplinarne podstawy leksykonu

Projektowanie leksykonu w EBM angażuje wiele dyscyplin naukowych:

  • Epistemologia: konstrukcja znaczeń, logika dowodu, kontekstualność wiedzy.
  • Teoria systemów: organizacja przepływu informacji, redukcja złożoności, semantyczna autopojeza.
  • Semiotyka: kodowanie i dekodowanie znaczeń, intertekstualność.
  • Linguistyka kognitywna: profilowanie pojęciowe, metafory organizacyjne.
  • Zarządzanie wiedzą: ontologie, pamięć organizacyjna, inżynieria informacji.
  • Prawo: definicje legalne vs. operacyjne, hermeneutyka regulacyjna.
  • Socjologia organizacji: instytucjonalizacja znaczeń, konflikty definicyjne.
  • Psychologia poznawcza: ergonomia informacji, schematy poznawcze.

Podsumowując, leksykon w zarządzaniu opartym na dowodach to narzędzie o charakterze epistemologicznym, komunikacyjnym i systemowym. Jego opracowanie wymaga interdyscyplinarnej współpracy, precyzji redakcyjnej oraz głębokiego zrozumienia logiki poznania i funkcjonowania organizacji. W efekcie leksykon nie tylko porządkuje język praktyki zawodowej, lecz także wspiera racjonalność decyzji, transparentność komunikacji i trwałość instytucjonalnych struktur wiedzy.

Bibliografia

  1. Bartmiński, Jerzy (2020): In search of an ethnolinguistic paradigm: A glossary of key terms and concepts. w: Juzn Filol 76 (2), s. 79–103. DOI: 10.2298/JFI2002079B.
  2. Gajda, Stanisław (2017): Język w nauce (w perspektywie filozoficzno-lingwistycznej). w: Parezja (2(8)), s. 9–20. DOI: 10.15290/parezja.2017.08.02.
  3. Uździcka, Marzanna (2017): O nowym pojęciu glosariusza (na materiale literatury fantasy). Rekonesans badawczy. w: Stylistyka (26), s. 269–289. DOI: 10.25167/Stylistyka26.2017.17.


12.09.2025

Wizioner, który ukształtował przyszłość wydawnictw naukowych: Bruce Rosenblum

Gdy pięć największych organizacji zrzeszających wydawców naukowych po raz pierwszy w historii połączyło siły, aby stworzyć wspólną nagrodę, wybór patrona był oczywisty. Nagroda Rosenbluma za Wpływ Publikacji Naukowych honoruje pamięć Bruce'a Rosenbluma — człowieka, którego wizja i determinacja na zawsze zmieniły sposób, w jaki komunikujemy się w świecie nauki.

Pionier cyfryzacji

Bruce Rosenblum należał do grona tych rzadkich innowatorów, którzy potrafili dostrzec potencjał nowych technologii na długo przed tym, jak stały się one standardem. W czasach, gdy świat akademicki dopiero zaczynał eksperymentować z możliwościami internetu, Rosenblum już pracował nad rozwiązaniami, które miały fundamentalnie zmienić sposób publikowania i udostępniania wiedzy naukowej.

Jego najważniejszym osiągnięciem była praca nad definicjami typów dokumentów (DTD) — może nie brzmi to spektakularnie dzisiaj, ale w latach 90. było to przełomowe podejście do strukturyzowania informacji cyfrowej. To właśnie te pozornie techniczne rozwiązania stały się fundamentem, na którym zbudowano współczesny ekosystem publikacji naukowych.

Wizja bez standardów to tylko marzenie; standardy bez wizji to tylko biurokracja

Bruce Rosenblum był wieloletnim prezesem firmy Inera (twórcy narzędzi Edifix i eXtyles), członkiem zarządu NISO i siłą napędową standardów JATS oraz STS, który po diagnozie stwardnienia zanikowego bocznego w 2017 roku stał się także adwokatem świadomości niepełnosprawności i wspierania badań nad SLA, pozostawiając po sobie dziedzictwo pioniera XML-a i DTD w wydawnictwach naukowych, mentora dla wielu pokoleń specjalistów branży oraz człowieka o niezwykłej odwadze i determinacji w obliczu przeciwności losu.

Bruce Rosenblum
Bruce Rosenblum | doi.org

Księga standardów XML

Gdy większość branży wydawniczej wciąż myślała w kategoriach tradycyjnego druku, Rosenblum już propagował standardy XML. Rozumiał, że przyszłość publikacji naukowych leży w strukturyzowanych, wzajemnie połączonych danych, które mogą być łatwo wyszukiwane, analizowane i udostępniane.

Jego wysiłki w zakresie promocji XML-a nie były jedynie techniczną fascynacją — to była wizja świata, w którym wiedza naukowa stanie się bardziej dostępna, a komunikacja między badaczami będzie płynniejsza i efektywniejsza. Dziś, gdy każdego dnia korzystamy z zaawansowanych systemów wyszukiwania publikacji, zarządzania referencjami czy analiz bibliometrycznych, trudno wyobrazić sobie, że ktoś musiał najpierw stworzyć techniczne podstawy dla tych rozwiązań.

Rosenblum nie ograniczał się jednak do samej technologii. Równie ważną częścią jego dziedzictwa było wdrażanie zaawansowanych praktyk redakcyjnych, które podnosiły jakość i spójność publikacji naukowych. W czasach, gdy proces wydawniczy często polegał na improwizacji, on wprowadzał systematyczne, oparte na standardach podejście do edycji i przygotowania tekstów naukowych.

Pierwsza Nagroda Rosenbluma

Nie przypadkiem pierwszą Nagrodą Rosenbluma za Wpływ Publikacji Naukowych wyróżniono system DOI (Digital Object Identifier) for Scholarly Publishing. To doskonały przykład tego, jak wizja Rosenbluma przekształciła się w praktyczne rozwiązania, które dziś są niezbędne dla funkcjonowania nauki.

DOI, wdrożony przez Crossref, stał się w ciągu ostatnich trzech dekad fundamentalną infrastrukturą łączności dla publikacji naukowych. Zapewnia trwałą identyfikację i możliwość wyszukiwania obiektów badawczych, niezależnie od zmian w strukturze sieci. To właśnie ten rodzaj myślenia — o trwałości, interoperacyjności i dostępności — charakteryzował podejście Rosenbluma do technologii wydawniczych.

Dziedzictwo

Współpraca pięciu czołowych organizacji branżowych — ALPSP, AUPresses, NISO, SSP i STM — przy tworzeniu tej nagrody to samo w sobie historyczne wydarzenie. Po raz pierwszy w historii te organizacje połączyły siły w tak ambitnym przedsięwzięciu. To świadectwo tego, jak daleko sięga wpływ pracy Rosenbluma — jego wizja nie tylko przekształciła technologie, ale także sposób myślenia całej branży o współpracy i standardach.

Nagroda nie wyróżnia konkretnych osób czy organizacji, nie wiąże się też z nagrodą pieniężną. Zamiast tego honoruje elementy ekosystemu, które umożliwiają produkcję, rozpowszechnianie i współpracę niezbędną dla komunikacji naukowej. To podejście również odzwierciedla filozofię Rosenbluma — koncentrację na systemowych rozwiązaniach, które służą całej społeczności naukowej.

Lekcja

W kontekście współczesnych wyzwań związanych z Evidence-Based Management, dziedzictwo Bruce'a Rosenbluma nabiera szczególnego znaczenia dla zarządzania organizacjami naukowymi i wydawniczymi. Jego wizja standaryzacji i systematyzacji procesów wydawniczych znajduje dziś odzwierciedlenie w metodach zarządzania opartych na danych i dowodach naukowych. Systemy takie jak DOI nie tylko ułatwiają zarządzanie zasobami publikacyjnymi, ale także dostarczają menedżerom wydawnictw naukowych solidnych metryk do podejmowania decyzji strategicznych opartych na faktach, a nie intuicji.

Bariera przeciw negacjonizmowi w zarządzaniu

W obliczu narastającego negacjonizmu naukowego w praktykach zarządzania organizacjami, infrastruktura stworzona przez pionierów takich jak Rosenblum staje się fundamentem dla evidence-based leadership. Standaryzowane procesy, trwałe systemy identyfikacji i strukturyzowane dane umożliwiają menedżerom weryfikację skuteczności różnych strategii i przeciwdziałanie podejmowaniu decyzji opartych na modach zarządczych czy pseudonaukowych teoriach. Gdy świat biznesu bombardowany jest niesprawdzonymi metodami zarządzania, solidne systemy dokumentacji i śledzenia wyników stanowią niezbędne narzędzie dla odpowiedzialnych liderów.

Nagroda Rosenbluma za Wpływ Publikacji Naukowych to więcej niż honor dla przeszłych osiągnięć — to zobowiązanie do kontynuowania pracy nad innowacjami, które w erze EBM i walki z negacjonizmem sprawią, że komunikacja naukowa i praktyki menedżerskie staną się jeszcze bardziej oparte na dowodach, weryfikowalne i odporne na manipulacje. Tak jak Rosenblum budował fundamenty dla cyfrowej rewolucji w nauce, dziś musimy budować infrastruktury zarządzania, które ochronią organizacje przed podejmowaniem decyzji opartych na fałszywych przesłankach i niesprawdzonych teoriach.

Źródła

  1. Nagroda Rosenbluma za Wpływ na Wydawnictwa Naukowe (Scholarly Publishing Impact), https://rosenblumaward.org/
  2. Remembering Bruce Rosenblum, https://www.niso.org/niso-io/2023/12/remembering-bruce-rosenblum

Jak złamać szyfr DOI i dotrzeć do artykułu w kilka sekund

DOI (ang. Digital Object Identifier) to unikalny identyfikator nadawany publikacjom naukowym, raportom, danym badawczym i innym treściom cyfrowym. Dzięki DOI można w prosty sposób znaleźć dokument, nawet jeśli zmienił on swoją lokalizację w Internecie.

Jak wygląda DOI?

Identyfikator DOI składa się z dwóch części: prefiksu – zawsze zaczyna się od 10. (np. 10.33141), sufiksu – czyli dalszej części nadanej przez wydawcę (np. po.2024.01.05). Razem tworzą pełny identyfikator, np.: 10.33141/po.2024.01.05 Wystarczy dodać przed nim adres https://doi.org/, a staje się działającym linkiem. Przykład: https://doi.org/10.33141/po.2024.01.05

Dlaczego DOI?

DOI zapewnia trwałość odwołań do publikacji naukowych. Nawet jeśli dokument zostanie przeniesiony na inny serwer lub zmieni się jego adres internetowy, identyfikator DOI pozostaje niezmienny i zawsze prowadzi do aktualnej wersji opisu. Dzięki temu stanowi pewny punkt odniesienia, na którym można budować przypisy i bibliografie w pracach naukowych.

Co więcej, DOI jest obsługiwany przez menedżery bibliografii, takie jak Citavi, Mendeley czy Zotero, co znacząco ułatwia gromadzenie i porządkowanie źródeł. Jego uniwersalny charakter sprawia, że działa globalnie, niezależnie od wydawcy. Korzystając z DOI, masz pewność, że Twoja praca naukowa zawsze będzie miała jednoznaczne i trwałe odwołanie do źródeł. Krótko mówiąc: DOI pełni rolę trwałego, jednoznacznego „łącza” do rzetelnych dowodów naukowych, które menedżerowie mogą bezpiecznie wykorzystywać w procesie podejmowania decyzji.

Dekoder DOI

🔎 Jak złamać szyfr DOI?

Wpisz lub wklej dokładny identyfikator DOI w polu poniżej, a następnie kliknij „Prześlij”.


Źródła

  1. Fundacja DOI, https://www.doi.org/

10.09.2025

Historia Evidence-Based Medicine i Evidence-Based Management… w fantastyce

Choć EBM i EBMgt wywodzą się z nauk medycznych i zarządczych, ich ducha można odczytać również w literaturze fantastycznej. Twórcy fantastyki często stawiali pytania o granice poznania, eksperymentowali z możliwościami świata i testowali hipotezy, choć w formie narracyjnej. W tej opowieści bohaterami historii dowodowego podejścia stają się autorzy fantastyki, z Zeidlem na czele, symbolizując pionierskie myślenie o świecie i systemach rządzących rzeczywistością.

Średniowieczne początki fantastyki – fundamenty wyobraźni eksperymentalnej

  • Twórcy literatury mitologicznej i wczesnej fantastyki: już w średniowieczu autorzy, tacy jak Dante czy Rabelais, zaczęli konstruować światy, w których obserwacja i eksperyment myślowy były kluczem do zrozumienia rzeczywistości. Choć nie posługiwali się metodą naukową, ich prace uczyły systematycznego myślenia i testowania granic wyobraźni.

Nowożytność fantastyczna – eksperyment w narracji

  • Mary Shelley (1797–1851) – pionierka science fiction. Tworząc Frankensteina, niejako „eksperymentowała” z granicami życia i etyki naukowej.

  • Jules Verne (1828–1905) – w swoich powieściach łączył naukę i obserwację z narracją przygodową, pokazując, że systematyczne podejście do faktów może prowadzić do odkryć i przewidywań.

XX wiek – Zeidel i współcześni pionierzy fantastyki dowodowej

  • Zeidel: centralna postać tej historii, twórca fantastyki, który poprzez swoje uniwersa eksperymentalnie badał prawa logiki, społeczeństwa i moralności. Jego powieści można traktować jako laboratorium myślowe, w którym dowody i konsekwencje działań bohaterów testowane są w różnych scenariuszach.

  • Isaac Asimov i Ursula K. Le Guin: kontynuowali tradycję „dowodowego myślenia” w fantastyce, konstruując systemy praw, społeczeństw i technologii w sposób spójny, logiczny i empirycznie przemyślany.

Od fantastyki do Evidence-Based Management

  • W XX i XXI wieku twórcy fantastyki stali się inspiracją dla myślenia strategicznego i zarządczego. Idee Zeidla o testowaniu różnych wariantów świata i obserwacji konsekwencji działań bohaterów można porównać do Evidence-Based Management.

  • Pfeffer i Sutton w fantastycznej wersji mogliby mówić: „Ucz się z eksperymentów literackich – analizuj scenariusze, przewiduj skutki, wprowadzaj poprawki” – czyli stosuj dowody z obserwacji systemów fikcyjnych w zarządzaniu rzeczywistym.

Janusz A. Zajdel. Domena publiczna, https://commons.wikimedia.org/w/index.php?curid=130632661

Historia dowodowego podejścia, nawet w fantastyce, pokazuje stopniowy proces od intuicji i wyobraźni do systematycznego eksperymentu myślowego. Zeidel i jego współcześni bohaterowie fantastyki udowodnili, że logika, eksperyment i konsekwencja są kluczem nie tylko w nauce, ale także w tworzeniu światów, które mogą inspirować rzeczywiste decyzje zarządcze. Evidence-Based Management staje się w tym ujęciu naturalnym rozszerzeniem metody dowodowej, przeniesionej z laboratorium i gabinetu lekarskiego do świata wyobraźni i strategii.

„Myśli człowieka są sferą, do której najtrudniej dotrzeć, a tam przecież rodzą się treści wypowiedzi i zamiary działań. Myśli ludzkie kryć mogą w sobie istotne elementy zagrożenia publicznego. Człowiek, pozostawiony z własnymi myślami, bez moralnego i naukowego wsparcia, wątpi, docieka, roztrząsa dziwaczne i niebezpieczne pomysły...”
— Janusz A. Zajdel, Paradyzja

Historia Evidence-Based Medicine i narodziny Evidence-Based Management

Evidence-Based Medicine (EBM) – medycyna oparta na dowodach – to podejście, które dziś wydaje się fundamentem nauk medycznych. Jego istotą jest podejmowanie decyzji klinicznych na podstawie najlepszych dostępnych dowodów naukowych, w połączeniu z doświadczeniem lekarza i wartościami pacjenta. Choć koncepcja EBM narodziła się formalnie dopiero w XX wieku, jej korzenie sięgają czasów, gdy zaczęto stopniowo zastępować intuicję i tradycję systematyczną obserwacją oraz eksperymentem.

Średniowieczne początki – fundamenty empiryzmu

  • Świat islamu (IX–XIII w.): Lekarze arabscy, tacy jak Rhazes (Al-Razi) i Avicenna (Ibn Sina), kładli nacisk na obserwację kliniczną i systematyczne dokumentowanie przypadków. To w średniowiecznym świecie arabskim po raz pierwszy sformułowano zasadę odróżniania doświadczenia od spekulacji filozoficznej.

„Jeśli lekarz potrafi leczyć za pomocą pożywienia, a nie leków, to odnosi sukces. Jeśli jednak musi używać leków, powinny to być proste środki, a nie złożone preparaty.”
— Muhammad ibn Zakariya al-Razi, Kitab al-Hawi PM
  • Europa średniowieczna: Choć dominowała scholastyka i autorytet Galena, stopniowo pojawiały się praktyki kliniczne oparte na obserwacji pacjentów, np. w szpitalach monastycznych. Był to etap przygotowujący grunt pod nowożytne przełomy naukowe.

Nowożytność – przełom eksperymentu i obserwacji

  • XVI–XVII wiek: Rewolucja naukowa w Europie wprowadziła metodę eksperymentalną do badań przyrodniczych. Francis Bacon wskazywał na potrzebę indukcyjnej metody opartej na doświadczeniu, a William Harvey (1628) opisał krążenie krwi dzięki obserwacji i eksperymentom.

  • James Lind (1747): szkocki lekarz, który przeprowadził jedno z pierwszych kontrolowanych badań klinicznych na marynarzach cierpiących na szkorbut, dowodząc skuteczności cytrusów.

XIX wiek – narodziny nowoczesnej mikrobiologii i statystyki

  • Louis Pasteur i Robert Koch: twórcy nowoczesnej mikrobiologii, których eksperymenty pozwoliły zrozumieć rolę drobnoustrojów w chorobach i położyły fundamenty higieny i szczepień.

  • Rozwój statystyki i epidemiologii klinicznej umożliwił systematyczną analizę danych medycznych, co stało się podwaliną EBM.

XX wiek – formalizacja Evidence-Based Medicine

  • Archie Cochrane (1909–1988): brytyjski epidemiolog, który w książce Effectiveness and Efficiency (1972) podkreślił konieczność oparcia medycyny na rzetelnych dowodach, a nie tradycji.

  • David Sackett i McMaster University (lata 80. i 90.): wprowadzili pojęcie współczesnego EBM, integrując dowody naukowe z doświadczeniem klinicysty i wartościami pacjenta.

  • Cochrane Collaboration (1993): globalna inicjatywa promująca systematyczne przeglądy literatury, utrwaliła metodologię EBM.

Od Evidence-Based Medicine do Evidence-Based Management

  • Lata 90. i początek XXI wieku: sukces EBM w medycynie zainspirował menedżerów i badaczy organizacji. Skoro lekarze mogą podejmować decyzje oparte na dowodach, dlaczego nie mieliby tego robić menedżerowie, politycy czy nauczyciele?

  • Jeffrey Pfeffer i Robert Sutton (2006): w książce Hard Facts, Dangerous Half-Truths, and Total Nonsense pokazali, jak zastosować zasady EBM w zarządzaniu. Tak narodziło się Evidence-Based Management (EBMgt) – podejście, w którym decyzje menedżerskie opiera się na najlepszych dostępnych dowodach, danych organizacyjnych i doświadczeniu liderów.

Abu Bakr Muhammad Ibn Zakariya Al-Razi

Historia EBM pokazuje stopniowy proces przechodzenia od intuicji i tradycji do systematycznej, empirycznej metody badawczej. Od średniowiecznych obserwacji Rhazesa i Avicenny, przez eksperymenty Lind’a i odkrycia Pasteura, po formalizację EBM w XX wieku, nauka stała się coraz bardziej dowodowa. Inspiracja medycyną dowodową doprowadziła do narodzin Evidence-Based Management, rozszerzając wpływ tej metodologii na decyzje w biznesie i zarządzaniu.


Bibliografia i źródło zdjecia

Ahmed, Jaafar O.; Kakamad, Karwan K.; Najmadden, Zana B.; Saeed, Sarhang I. (2024): Abu Bakr Muhammad Ibn Zakariya Al-Razi (Rhazes) (865-925): The Founder of the First Psychiatric Ward. w: Cureus 16 (7), e64601. DOI: 10.7759/cureus.64601.

25.07.2025

Self-publishing książki naukowej bez barier – dzięki Zenodo i innym otwartym repozytoriom


Wydanie książki naukowej jeszcze do niedawna wiązało się z koniecznością znalezienia wydawcy, poniesieniem kosztów redakcyjnych lub drukarskich, a często także z oddaniem części praw autorskich. Dziś, w epoce otwartej nauki i cyfrowych repozytoriów, coraz więcej autorów decyduje się na samodzielne publikowanie – z pełną kontrolą nad treścią, formą i dostępnością. Co najważniejsze, możliwe jest to bez opłat, a mimo to z numerem DOI, czyli cyfrowym identyfikatorem, który zapewnia trwałość odnośnika i indeksację w najważniejszych wyszukiwarkach naukowych.

Dzięki platformom takim jak Zenodo, OSF, Figshare i HAL, każdy może udostępnić swoją książkę światu w sposób zgodny z akademickimi standardami. Te repozytoria są nie tylko darmowe i łatwe w obsłudze, ale także przyjazne dla autorów z nauk społecznych, humanistyki i nauk interdyscyplinarnych.

Zenodo to zdecydowany lider wśród europejskich repozytoriów open access. Powstałe przy CERN i finansowane przez Unię Europejską, oferuje intuicyjny interfejs, możliwość udostępniania książek w formacie PDF, wybór licencji Creative Commons oraz – co kluczowe – automatyczne nadanie DOI. Publikacje są indeksowane w Google Scholar, a dzięki stabilnej infrastrukturze zapewniony jest ich długoterminowy dostęp. Zenodo stawia na jakość i transparentność, co czyni je idealnym miejscem dla monografii naukowych, podręczników czy zbiorów esejów. Co ciekawe, choć dominują tam nauki ścisłe, coraz częściej pojawiają się także prace z socjologii, psychologii, edukacji czy historii.

Jak znaleźć książki na Zenodo?

1. Wejdź na zenodo.org.
2. W polu wyszukiwania wpisz np. "book", "handbook", "monograph" lub konkretny temat (np. "climate", "AI", "history").
3. Skorzystaj z filtrów, aby zawęzić wyniki do publikacji typu "publication" lub "book".
Równie wartościowym wyborem jest OSF – Open Science Framework, zarządzane przez Center for Open Science. Choć początkowo skupiało się na dokumentowaniu procesów badawczych i preprintów, OSF umożliwia także publikację pełnych książek oraz materiałów pomocniczych – od danych po załączniki i prezentacje. Platforma pozwala tworzyć kompleksowe „projekty” badawcze i dzielić się nimi z dowolną liczbą odbiorców. Co istotne, również tutaj autorzy mogą bezpłatnie uzyskać numer DOI i sami zdecydować, czy publikacja będzie publiczna, czy prywatna. OSF cieszy się dużym uznaniem wśród badaczy z psychologii, nauk behawioralnych, edukacji i nauk społecznych.

Jeśli zależy Ci na estetyce prezentacji i precyzji metadanych, warto przyjrzeć się Figshare – platformie popularnej zwłaszcza w środowiskach uczelnianych i instytutach badawczych. Figshare wspiera publikację książek i raportów z wysoką jakością prezentacji oraz umożliwia pełną kontrolę nad opisem, tagami, przypisaniem autorstwa i danymi technicznymi. Każda opublikowana pozycja otrzymuje unikalny DOI, jest archiwizowana w systemach długoterminowego przechowywania i może być zintegrowana z ORCID. To dobre rozwiązanie, jeśli autor ceni zarówno dostępność, jak i estetykę przekazu – a jednocześnie chce zachować wszystkie prawa autorskie.

Z kolei HAL – otwarte repozytorium francuskie – to platforma doceniana przez badaczy z dziedzin humanistycznych i społecznych. Choć HAL powstało z inicjatywy francuskich instytucji badawczych, umożliwia publikowanie treści w różnych językach, w tym angielskim. W HAL bez problemu udostępnisz książkę, raport lub rozdział z zachowaniem standardów open access, z pełnym przypisaniem autorstwa, wyborem licencji i – oczywiście – z nadanym DOI. HAL jest często wykorzystywane przez socjologów, politologów, badaczy kultury i pedagogów.

Wszystkie wymienione platformy mają jedną wspólną cechę – pozwalają Ci pozostać właścicielem swojej pracy, a jednocześnie umożliwiają jej bezpłatne i profesjonalne udostępnienie globalnej społeczności badaczy, studentów i praktyków.

Samodzielna publikacja książki naukowej nie musi oznaczać kompromisu między jakością a dostępnością. Dzięki repozytoriom naukowym, które oferują darmowy DOI, zgodność z wymogami akademickimi i pełną kontrolę nad publikacją, możesz stworzyć realną alternatywę dla tradycyjnego wydawnictwa. To także wkład w rozwój otwartej nauki i demokratyzację dostępu do wiedzy.

Wystarczy przygotować plik PDF, zarejestrować się na wybranej platformie, opisać publikację, wybrać licencję – i gotowe. Twoja książka może już dziś stać się częścią globalnej biblioteki przyszłości.


16.06.2025

Traktat o zasadach zarządzania dowodowego – przyszłość zarządzania

Publikacja stanowi pionierską próbę przeniesienia koncepcji Evidence-based medicine (EBM) na grunt nauk o zarządzaniu i jakości. Autorzy proponują oryginalny model zarządzania dowodowego, przedstawiony w formie traktatu naukowego. Monografia prezentuje osiem zasad merytorycznych i osiem zasad opartych na wartościach, kreując nową przestrzeń poznawczą i aplikacyjną. Innowacyjne podejście łączy solidne podstawy teoretyczne z perspektywą implementacyjną, stanowiąc przełomowy głos w debacie o przyszłości zarządzania. Książka adresowana do naukowców, doktorantów, studentów MBA, decydentów oraz praktyków zainteresowanych strategiczną transformacją organizacji.

Kup teraz

30.05.2025

Streszczenie zgodne z 12 wytycznymi PRISMA 2020 dla raportów z przeglądu systematycznego

Tytuł
→ Jasno wskaż, że tekst dotyczy przeglądu systematycznego (np. „Przegląd systematyczny…”).


Tło / Cele badania
→ Sformułuj główny cel przeglądu lub pytanie badawcze (najlepiej zgodne z formatem PICo lub PICO).


Kryteria włączenia i wyłączenia
→ Wymień najważniejsze warunki, na podstawie których artykuły były kwalifikowane lub odrzucane.


Źródła informacji
→ Wskaż, jakie bazy danych zostały przeszukane oraz kiedy odbyło się ostatnie wyszukiwanie.


Ocena ryzyka biasu
→ Opisz, jak oceniano jakość i wiarygodność włączonych badań (np. narzędzia oceny ryzyka biasu).


Sposób syntezy danych
→ Wskaż, czy dokonano analizy jakościowej, ilościowej (meta-analizy) czy mieszanej.


Liczba i typ uwzględnionych badań
→ Podaj liczbę prac włączonych po selekcji oraz ich podstawowe cechy.


Główne wyniki (synteza)
→ Przedstaw kluczowe ustalenia i ich znaczenie (najlepiej tematycznie lub według kategorii).


Ograniczenia dowodów
→ Wymień najważniejsze słabości dostępnych danych (np. mała liczba badań, ryzyko stronniczości).


Interpretacja / znaczenie wyników
→ Przedstaw implikacje wyników dla praktyki, teorii lub przyszłych badań.


Finansowanie
→ Wskaż, czy przegląd był finansowany i przez kogo.


Rejestracja
→ Poinformuj, czy przegląd został zarejestrowany w rejestrze (np. PROSPERO), podaj numer.

Wytyczne dla przeglądów systematycznych PRISMA 2020

PRISMA 2020 (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) to najnowsza, zaktualizowana wersja międzynarodowych wytycznych dotyczących raportowania przeglądów systematycznych i metaanaliz. Te wytyczne stanowią złoty standard w dziedzinie medycyny opartej na dowodach i są niezbędne dla każdego badacza zajmującego się syntezą dowodów naukowych.

🎯 Czym jest PRISMA 2020?

PRISMA 2020 to kompleksowy zestaw wytycznych, który zawiera 27 głównych elementów podzielonych na siedem kluczowych sekcji. Każdy element jest szczegółowo opisany z jasno określonymi wymaganiami dotyczącymi raportowania, które dzielą się na:

📋 Elementy podstawowe

Niezbędne informacje, które muszą być zawarte w każdym przeglądzie systematycznym

📈 Elementy dodatkowe

Uzupełniające informacje, które zwiększają kompletność i użyteczność raportu

🏗️ Szczegółowa struktura wytycznych PRISMA 2020

📋 TYTUŁ

Poz. 1: Tytuł

Element podstawowy Identyfikacja raportu jako przeglądu systematycznego w tytule.

Tytuł powinien zawierać kluczowe informacje o głównym celu lub pytaniu, populacji i interwencjach. Może również zawierać dodatkowe informacje o metodzie analizy czy typie włączonych badań.

Poz. 2: Streszczenie

Wymóg: Streszczenie zgodne z listą kontrolną PRISMA 2020 dla streszczeń.

Streszczenie powinno zawierać wszystkie kluczowe elementy przeglądu systematycznego w skondensowanej formie.

📝 WPROWADZENIE

Poz. 3: Uzasadnienie

Opis uzasadnienia dla przeglądu w kontekście istniejącej wiedzy:

  • Opis aktualnego stanu wiedzy i jej niepewności
  • Wyjaśnienie, dlaczego ważne jest przeprowadzenie przeglądu
  • Jeśli istnieją inne przeglądy na ten sam temat - wyjaśnienie konieczności nowego przeglądu
  • Krótki opis mechanizmu działania badanych interwencji

Poz. 4: Cele

Jasne sformułowanie celów lub pytań badawczych:

Cele powinny być wyrażone w ramach odpowiedniej struktury formułowania pytań (np. PICO - Populacja, Interwencja, Porównanie, Wyniki) lub jej wariantów.

🔬 METODOLOGIA

Poz. 5: Kryteria włączenia

Kryteria dotyczące badań

Wszystkie charakterystyki badań używane do decyzji o włączeniu: komponenty PICO, projekty badań, warunki, minimalny czas obserwacji

Kryteria dotyczące publikacji

Rok publikacji, język, status publikacji (nieopublikowane manuskrypty, abstrakty konferencyjne)

Poz. 6: Źródła informacji

Wszystkie przeszukiwane źródła z datami ostatniego przeszukiwania:

  • Bazy danych bibliograficzne (nazwa, interfejs, daty pokrycia)
  • Rejestry badań i bazy regulacyjne
  • Strony internetowe i wyszukiwarki
  • Organizacje i producenci
  • Listy referencyjne i wyszukiwanie cytowań

Poz. 7: Strategia wyszukiwania

Pełne strategie wyszukiwania dla wszystkich baz danych:

  • Kompletna strategia wyszukiwania linia po linii dla każdej bazy
  • Opis zastosowanych ograniczeń (data, język)
  • Cytowanie używanych filtrów wyszukiwania
  • Opis walidacji strategii wyszukiwania

Poz. 8: Proces selekcji

👥 Liczba recenzentów

Ile osób sprawdzało każdy rekord (tytuł/abstrakt) i każdy pełny tekst, czy pracowały niezależnie

🤖 Narzędzia automatyzacji

Integracja narzędzi uczenia maszynowego w procesie selekcji, klasyfikatory, oprogramowanie

Poz. 9: Proces zbierania danych

Metody zbierania danych z raportów:

  • Liczba recenzentów zbierających dane z każdego raportu
  • Procesy rozwiązywania rozbieżności
  • Procesy uzyskiwania/potwierdzania danych od autorów badań
  • Użycie narzędzi automatyzacji w ekstrakcji danych

Poz. 10a: Elementy danych (wyniki)

Lista i definicja wszystkich wyników, dla których poszukiwano danych:

  • Domeny wyników i ramy czasowe pomiarów
  • Czy poszukiwano wszystkich wyników kompatybilnych z każdą domeną
  • Zmiany w włączaniu lub definicji domen wyników
  • Które domeny wyników uznano za najważniejsze

Poz. 10b: Elementy danych (inne zmienne)

Lista wszystkich innych zmiennych: charakterystyki uczestników i interwencji, źródła finansowania, założenia dotyczące brakujących informacji.

Poz. 11: Ocena ryzyka błędu systematycznego w badaniach

🛠️ Narzędzia oceny

Narzędzia (i wersje) używane do oceny ryzyka, domeny metodologiczne, ogólne osądy ryzyka

👥 Proces oceny

Liczba recenzentów oceniających każde badanie, niezależność pracy, rozwiązywanie sporów

Poz. 12: Miary efektu

Dla każdego wyniku: miary efektu użyte w syntezie lub prezentacji wyników (np. ryzyko względne, różnica średnich), progi interpretacji wielkości efektu, uzasadnienie wyboru miar.

Poz. 13a-f: Metody syntezy

13a: Kwalifikowalność do syntezy

Procesy decydowania, które badania kwalifikują się do każdej syntezy

13b: Przygotowanie danych

Metody przygotowania danych do prezentacji/syntezy (obsługa brakujących statystyk, konwersje danych)

13c: Metody tabelaryczne i graficzne

Struktury tabel, metody graficzne do wizualizacji wyników

13d: Metody syntezy statystycznej

Modele meta-analizy, metody identyfikacji heterogeniczności, oprogramowanie użyte

13e: Badanie heterogeniczności

Analiza podgrup, meta-regresja, inne metody eksploracji przyczyn heterogeniczności

13f: Analizy wrażliwości

Analizy wrażliwości przeprowadzone w celu oceny stabilności wyników

Poz. 14: Ocena błędów publikacyjnych

Metody oceny ryzyka błędów związanych z brakującymi wynikami: narzędzia, metody graficzne, statystyczne do oceny błędów publikacyjnych w syntezie.

Poz. 15: Ocena pewności dowodów

🎯 Narzędzia oceny

System oceny pewności (np. GRADE), rozważane czynniki, kryteria oceny

📊 Proces oceny

Reguły decyzyjne, interpretacja poziomów pewności, procesy raportowania

📊 WYNIKI

Poz. 16a: Selekcja badań (przepływ badań)

Diagram przepływu PRISMA: liczba rekordów zidentyfikowanych, przesiewanych, wykluczonych, pobieranych, włączonych do przeglądu.

Poz. 16b: Selekcja badań (wykluczone badania)

Cytowanie badań wykluczonych z wyjaśnieniem przyczyn wykluczenia.

Poz. 17: Charakterystyki badań

Cytowanie każdego włączonego badania i prezentacja jego kluczowych charakterystyk w tabeli lub rysunku.

Poz. 18: Ryzyko błędu systematycznego w badaniach

📋 Prezentacja ocen

Tabele/rysunki pokazujące ryzyko błędu w każdej domenie dla każdego badania

💬 Uzasadnienie

Uzasadnienie każdej oceny ryzyka, np. w formie cytatów z raportów

Poz. 19: Wyniki poszczególnych badań

Dla wszystkich wyników, dla każdego badania:

  • Statystyki podsumowujące dla każdej grupy
  • Oszacowanie efektu i jego precyzja (np. przedział ufności)
  • Prezentacja tabelaryczna i wizualna wyników

Poz. 20a-d: Wyniki syntez

20a: Charakterystyki badań

Krótkie podsumowanie charakterystyk i ryzyka błędu w badaniach

20b: Wyniki syntez statystycznych

Oszacowania podsumowujące, precyzja, miary heterogeniczności

20c: Badanie heterogeniczności

Wyniki wszystkich badań przyczyn heterogeniczności

20d: Analizy wrażliwości

Wyniki wszystkich analiz wrażliwości

Poz. 21: Błędy publikacyjne

Oceny ryzyka błędów publikacyjnych dla każdej ocenianej syntezy, wykresy lejkowe, testy asymetrii.

Poz. 22: Pewność dowodów

Oceny pewności dowodów dla każdego ocenianego wyniku, wyjaśnienie przyczyn obniżenia/podwyższenia pewności.

💭 DYSKUSJA

Poz. 23a-d: Dyskusja

23a: Interpretacja

Ogólna interpretacja wyników w kontekście innych dowodów

23b: Ograniczenia dowodów

Ograniczenia dowodów włączonych do przeglądu

23c: Ograniczenia procesów przeglądu

Ograniczenia procesów przeglądowych i ich potencjalny wpływ

23d: Implikacje

Implikacje wyników dla praktyki, polityki i przyszłych badań

ℹ️ INNE INFORMACJE

Poz. 24a-c: Rejestracja i protokół

24a: Rejestracja

Informacje o rejestracji przeglądu

24b: Protokół

Gdzie można uzyskać dostęp do protokołu

24c: Zmiany

Opis zmian w stosunku do rejestracji/protokołu

Poz. 25: Wsparcie

Źródła wsparcia finansowego i niefinansowego dla przeglądu oraz rola fundatorów/sponsorów.

Poz. 26: Konflikty interesów

Deklaracja konfliktów interesów autorów przeglądu i sposób ich zarządzania.

Poz. 27: Dostępność danych i materiałów

Raportowanie dostępności: formularze zbierania danych, wyekstrahowane dane, dane analityczne, kod analityczny, inne materiały użyte w przeglądzie.