Anatomia procesu badawczego: Praktyczny framework dla rzetelnej nauki

Po wielu latach spędzonych na badaniach, proces naukowy – od idei po publikację – staje się drugą naturą. Jednak ta intuicja, choć bezcenna, zasługuje na ustrukturyzowanie. Chęć opisania tego warsztatu wynika nie tylko z potrzeby lepszego zrozumienia własnej pracy, ale także z chęci stworzenia mapy, która może pomóc innym nawigować po tym złożonym terenie.

Jedną z inspiracji była humorystyczna, ale trafna lista z książki Jorge Chama i Daniela Whitesona, „Nie mamy pojęcia. Przewodnik po nieznanym wszechświecie”:

  1. Uporządkuj to, co wiesz
  2. Szukaj prawidłowości
  3. Zadawaj pytania
  4. Kup tweedową marynarkę z łatami na łokciach

Praca naukowa to jednak przede wszystkim sztuka zadawania właściwych pytań. Nie chodzi o to, by „pobić baseline”, ale by zrozumieć zjawisko. Pytanie „dlaczego?” jest kompasem badacza. Zrozumienie z kolei często oznacza umiejętność zrekonstruowania mechanizmu (np. poprzez implementację kodu lub formalny dowód), choć w częściach matematyki wystarczy pełna, sprawdzalna argumentacja.

Zauważyłem, że niezależnie od tego, czy piszę pracę empiryczną z zakresu przetwarzania języka naturalnego (NLP), czy systematyczny przegląd z meta‑analizą, pod powierzchnią kryje się wspólny szkielet. Efektem tych obserwacji jest poniższy roboczy framework, który próbuje ten szkielet zwizualizować.

Praktyczny szkic procesu badawczego

Poniższy framework to mapa, nie dogmat. Pokazuje kluczowe etapy i ich specyfikę w zależności od typu pracy, włączając w to standardy raportowania i ostrożne wykorzystanie nowoczesnych narzędzi, jakimi są duże modele językowe (LLM‑y).

Etap Badawczy (Faza) Opis Ogólny i Cel Artykuł Empiryczny (np. NLP, badania obserwacyjne) Artykuł Teoretyczny (np. matematyka, informatyka) Przegląd Systematyczny (+ Meta‑analiza) Rola i Zastosowanie LLM (zawsze z walidacją eksperta)
0. Planowanie, Etyka i Prerejestracja Ustanowienie ram etycznych i metodologicznych przed badaniami. Zapewnienie transparentności. Zgoda komisji etycznej (IRB). Prerejestracja planu badań (np. OSF). Plan zarządzania danymi (zgodność z RODO/GDPR, HIPAA). Deklaracja konfliktu interesów. Określenie zasad korzystania z cudzych prac i dowodów. Rejestracja protokołu w bazie (np. PROSPERO dla zdrowia; OSF, INPLASY dla innych dziedzin). Wsparcie w formułowaniu planu zarządzania danymi. Pomoc w identyfikacji potencjalnych ryzyk etycznych do dalszej analizy.
1. Konceptualizacja i Identyfikacja Problemu Szeroka lektura, obserwacja, dyskusje. Celem jest znalezienie ważkiego, naukowego pytania lub luki w wiedzy. Obserwacja ograniczeń istniejących modeli, identyfikacja nowego, praktycznego problemu. Dostrzeżenie luki w istniejącej teorii lub możliwości uogólnienia dowodu. Zauważenie konfliktu w wynikach badań, brak jednoznacznej odpowiedzi na ważne pytanie kliniczne/praktyczne. Sparing partner: Generowanie pomysłów, streszczanie dziedzin do weryfikacji, identyfikacja trendów i potencjalnych luk w literaturze.
2. Formułowanie Pytania i Hipotezy Skupiony przegląd literatury. Celem jest sformułowanie precyzyjnego, weryfikowalnego pytania badawczego. Sformułowanie hipotezy. Definicja nowości (nowa metoda czy nowy problem). Sformułowanie konkretnej tezy do udowodnienia lub obalenia (koniektura). Sformułowanie pytania w formacie PICO/SPIDER. Zdefiniowanie kryteriów włączenia/wyłączenia. Wsparcie przeglądu literatury: Sugerowanie słów kluczowych, streszczanie abstraktów do oceny przez badacza, grupowanie tematyczne prac.
3. Projektowanie Metodologii Szczegółowy plan odpowiedzi na pytanie. Uzasadnienie wyboru metod (dlaczego te, a nie inne?). Protokół wg standardów EQUATOR: np. STROBE, CONSORT, SPIRIT, TRIPOD. Wybór metryk, metod bazowych. Określenie strategii dowodowej, potrzebnych lematów. Rozważenie formalnej weryfikacji (np. przy użyciu asystentów dowodzenia jak Lean/Coq). Protokół przeglądu: Zgodny z PRISMA 2020. Finalizacja strategii wyszukiwania (Boolean/MeSH), plan oceny ryzyka błędu (np. RoB 2, ROBINS‑I; lub PROBAST dla modeli predykcyjnych). Asystent projektowania: Generowanie szkicu kodu, propozycja bibliotek, pomoc w formułowaniu wstępnych strategii wyszukiwania.
4. Realizacja i Analiza Danych Wdrożenie protokołu. Zbieranie wyników i ich analiza statystyczna. Trening modeli, walidacja. Predefiniowany plan ablacji, testy stabilności. Korekty na wielokrotne porównania (np. kontrola FDR Benjamini–Hochberg). Praca nad dowodem. Implementacja algorytmu testującego teorię. Podwójny, niezależny screening z oceną zgodności (np. współczynnik κ (Cohena)). Ekstrakcja danych. Synteza, analiza heterogeniczności (I², τ²), biasu publikacyjnego (test Eggera), przedziały predykcji. Asystent analityka: Pisanie i debugowanie skryptów, generowanie wizualizacji do weryfikacji. Ważne: decyzje o włączeniu/wyłączeniu w przeglądzie podejmuje wyłącznie człowiek.
5. Interpretacja i Synteza Odpowiedź na pytanie „i co z tego?”. Co wyniki oznaczają, jakie są ich implikacje i ograniczenia? Analiza wyników w kontekście hipotezy. Dyskusja ograniczeń, zagrożeń dla trafności (patrz niżej) i przyszłych kierunków badań. Zrozumienie implikacji dowodu. Jakie nowe pytania otwiera? Synteza jakościowa i ilościowa (np. z użyciem korekty Hartung–Knapp), ocena pewności dowodów (np. GRADE, GRADE‑CERQual). Krytyczny sparing partner: Proponowanie alternatywnych wyjaśnień wyników, pomoc w identyfikacji słabych punktów w argumentacji.
6. Komunikacja Wyników (Pisanie) Ubranie wyników w formę artykułu zgodnie ze standardami raportowania (np. IMRaD). Pisanie wg struktury IMRaD i odpowiednich rozszerzeń standardów (np. CONSORT‑AI, MI‑CLAIM). Sekcja „Ograniczenia”. Struktura elastyczna (definicje, lematy, dowód, wnioski). Kluczowa jest precyzja i spójność. Pisanie wg standardów PRISMA 2020 i PRISMA‑S. Dołączenie diagramu przepływu PRISMA 2020 i checklisty. Asystent pisania: Korekta językowa, parafrazowanie, formatowanie bibliografii, generowanie szkicu abstraktu.
7. Udostępnianie i Archiwizacja Zapewnienie replikowalności i transparentności. Science is a conversation. Data/Code Availability Statement. Publikacja kodu, danych i środowiska (repozytorium + DOI, z jawną licencją, np. MIT/BSD‑3 dla kodu; CC BY 4.0 dla danych). Archiwizacja dowodu na platformach typu arXiv. Udostępnienie formularzy ekstrakcji, danych i skryptów analitycznych. Pomoc w przygotowaniu dokumentacji kodu (README.md). Archiwizacja promptów (w tym systemowego), ustawień (temperatura, top_p, seed) i wersji modelu.

Kluczowe aspekty rzetelności badawczej

Framework to jedno, ale prawdziwa rzetelność kryje się w detalach.

Zagrożenia dla trafności wniosków

Każde badanie jest obarczone ryzykiem błędu. Świadomość tych zagrożeń to oznaka dojrzałości badawczej. Zawsze warto zadać sobie pytania o cztery rodzaje trafności:

  • Wewnętrzna: Czy zaobserwowany efekt jest rzeczywiście spowodowany naszą interwencją, a nie innym czynnikiem?
  • Zewnętrzna: Czy wyniki można uogólnić na inne populacje, konteksty lub czasy?
  • Konstruktu: Czy nasze narzędzia pomiarowe faktycznie mierzą to, co chcemy mierzyć?
  • Statystyczna: Czy wnioski statystyczne są poprawne (np. czy mieliśmy wystarczającą moc, czy poprawnie obsłużyliśmy testowanie wielokrotne)?

Rola AI: Narzędzie, nie autorytet

Duże modele językowe to potężne akceleratory, ale ich użycie wymaga dyscypliny. Ryzyka, takie jak halucynacje i utrwalanie biasów, są dobrze udokumentowane (patrz Bibliografia: Weidinger et al., 2021). W moim zespole LLM‑y pełnią rolę asystenta i partnera do krytycznego sparingu. Wspierają brainstorming, porządkowanie literatury i szkicowanie kodu, ale każdy wynik i sugestia są weryfikowane przez człowieka: testami, replikacją i przeglądem źródeł. Traktujemy je jako narzędzia zwiększające produktywność, nie jako wyrocznie.

Przykład deklaracji udziału AI:

W przygotowaniu manuskryptu wykorzystano duży model językowy (GPT‑4, wersja z sierpnia 2025 r.) do wsparcia następujących zadań: (1) korekta stylistyczna, (2) generowanie szkiców kodu R. Wszystkie wygenerowane fragmenty zostały ręcznie zweryfikowane i zrefaktoryzowane przez autorów. Model nie brał udziału w analizie danych, formułowaniu wniosków ani podejmowaniu decyzji o włączeniu/wyłączeniu badań w przeglądzie systematycznym. Użyte prompty, w tym prompt systemowy, oraz kluczowe parametry (temperatura=0.5, top_p=1.0) zostały zarchiwizowane w repozytorium projektu.

Checklista i kultura otwartości

Ten framework to żywy dokument. Na koniec każdego projektu warto jednak przeprowadzić prosty test rzetelności. Poniższa checklista, choć niewyczerpująca, pomaga utrzymać wysoki standard i wpisuje się w postępującą zmianę kultury naukowej w kierunku pełnej transparentności, której przejawem są m.in. formaty Registered Reports.

  1. Transparentność: Czy istnieje prerejestracja lub publiczny protokół? Gdzie?
  2. Replikowalność: Czy kod, dane, środowisko i ziarna losowe są udostępnione (repozytorium + DOI, licencja, instrukcja)?
  3. Rzetelność statystyczna: Czy metryki są podane wraz z miarami niepewności (np. przedziały ufności/wiarygodności)? Czy przeprowadzono analizy czułości?
  4. Samokrytyka: Czy praca zawiera jawną sekcję „Zagrożenia dla trafności” i/lub „Ograniczenia”?
  5. Odpowiedzialność za narzędzia: Czy jasno opisano udział AI i sposoby jego weryfikacji?

Bibliografia i dalsze lektury

  1. Cham, J., & Whiteson, D. (2017). Nie mamy pojęcia. Przewodnik po nieznanym wszechświecie. Insignis Media.
  2. Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P.-S., … & Gabriel, I. (2021). Ethical and social risks of harm from Language Models. arXiv. https://doi.org/10.48550/arXiv.2112.04359
  3. Willis, L. D. (2023). Formulating the Research Question and Framing the Hypothesis (FINER, PICO). PubMed
  4. Mark Xu (2022). How to do theoretical research, a personal perspective. LessWrong
  5. Cory-Wright, R., Cornelio, C., Dash, S., El Khadir, B., … Horesh, L. (2024). Evolving scientific discovery by unifying data and background knowledge with AI Hilbert. Nature Communications
  6. What is the difference between research methods, research methodology and research approach? Quora (Q&A)
  7. Nikola Balić (2025). AI Ate Its Own Tail, and I Learned Something About Writing. nibzard.com (blog)
  8. Robort Gabriel (2025). AI Tools for Productivity: Boost Workflow & Output. DEV Community
  9. hashcollision (Substack). Merging with AI. Substack (esej)
  10. Jakie są rodzaje badań naukowych? Cochrane

Uwaga: pozycje z blogów/QA traktuj jako inspiracje i komentarze, a nie źródła dowodowe. „Twarde” twierdzenia w tekście naukowym lepiej jest popierać literaturą metodologiczną/recenzowaną.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ta strona używa Akismet do redukcji spamu. Dowiedz się, w jaki sposób przetwarzane są dane Twoich komentarzy.