View
258
Download
0
Category
Preview:
Citation preview
Adam Tarnowski Metodologia badań psychologicznych 1
Dr Adam Tarnowski
Metodologia badań psychologicznych.
Liczba zapożyczeń i cytatów w poniższym tekście jest tak duża, że trudno byłoby nawet w przybliżeniu stwierdzić, którym osobom co konkretnie autor zawdzięcza. Wymienię więc tylko w porządku alfabetycznym tych, z którymi zetknąłem się bezpośrednio, bądź słuchając ich wykładów, prowadząc seminaria według ich programu, korzystając z ich niepublikowanych opracowań, bądź też uwag w rozmowach prywatnych i konsultacjach własnych badań.
Prof. Elżbieta Aranowska
Prof. Andrzej Góralski
Dr hab. Maciej Haman
Prof. Józef Kozielecki
Prof. Tytus Sosnowski
Specjalne podziękowanie muszę zamieścić również dla Małgorzaty Wołejko (której zawdzięczam wiedzę o m.in. o badaniach internetowych)
Wiadomości z niniejszego skryptu warto uzupełnić o następujące lektury:
• Obowiązkowa:
– Bogdan Wojciszke (2004) "Systematycznie modyfikowane autoreplikacje: logika programu badań empirycznych w psychologii".(w:) J. Brzeziński (red.) Metodologia badań psychologicznych. Wybór tekstów. Warszawa: PWN
• Uzupełniająca:
– Brzeziński,J. (1997) Metodologia badań psychologicznych, Warszawa: PWN
– Choynowski, M., (1971) Pomiar w psychologii (w) Kozielecki J., (red.) Problemy psychologii matematycznej, Warszawa: PWN
– Carnap, R. (2000) Wprowadzenie do filozofii nauki Warszawa: Aletheia
– Hempel, C.G. (2001) Filozofia nauk przyrodniczych. Warszawa: Aletheia
– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN
Egzamin testowy będzie obejmował treść wykładu oraz artykuł Wojciszke.
Spis treści
Wykład 1. Czym jest nauka. 3
1.1. Psychologia jako pole badań empirycznych. 4
1.2. Definicja wiedzy naukowej. 5
1.3. Wiedza zdroworozsądkowa 9
Wykład 2. Prawdziwość wiedzy naukowej. 10
2.1. Zagadnienie prawdziwości wiedzy. 10
2.2. Prawdziwość pojęć 10
2.3. Prawdziwość twierdzeń 11
2.4. Prawdziwość teorii 11
Adam Tarnowski Metodologia badań psychologicznych 2
Wykład 3. Uwagi o języku naukowym 13
3.1. Nazwy. 13
3.2. Problem nadznaczenia. 14
3.3. Zdanie w sensie logicznym 14
3.4. Trzy światy Poppera 7
Wykład 4. Elementy logiki. Definicje. 16
4.1. Logika 16
4.2. Definicje 17
4.3. Błędy definicji. 18
Wykład 5. Model badania naukowego. 20
5.1. Model hipotetyczno-dedukcyjny. 20
5.2. Cechy dobrej teorii 21
5.3. Etapy badania naukowego. 22
Wykład 6. Zmienne w badaniach psychologicznych 25
6.1. Klasyfikacja zmiennych 25
6.2. Typy problemów badawczych i rodzaje zależności. 27
6.3. Zmienne uboczne: moderatory i mediatory 28
Wykład 7. Hipotezy i operacjonalizacja zmiennych. 30
7.1. Hipotezy 30
7.1.1. Warunki poprawności hipotez 30
7.1.2. Czy zawsze hipotezy są niezbędne w weryfikacji teorii? 31
7.2. Wskaźniki. 31
7.2.1. Klasyfikacja wskaźników 31
7.2.2. Moc rozdzielcza wskaźników 32
Wykład 8. Pomiar w psychologii- elementy psychometrii. 36
8.1. Struktura operacjonalizacji zmiennych psychologicznych. 36
8.2. Definicja pomiaru 36
8.3. Typy skal pomiarowych 37
8.4. Elementy teorii testów psychologicznych 37
Wykład 9. Trafność testów psychologicznych 39
9.1. Czym jest cecha psychiczna i kiedy można orzec że ona istnieje? 39
9.2. Rodzaje trafności 40
9.3. Metody oceny trafności testu 41
9.4. Model trafności Messicka: 42
9.5. Inne metody pomiaru w psychologii 43
Adam Tarnowski Metodologia badań psychologicznych 3
9.5.1. Wskaźniki chronometryczne 43
9.5.2. Neuroobrazowanie 43
Wykład 10. Wprowadzenie do metod statystycznych w psychologii 44
10.1. Dlaczego statystyka? 44
10.2. Pojęcie wariancji 44
10.3. Uncertainty management-czy zawsze rozwój nauki polega na eliminacji
wariancji? 45
10.4. Wnioskowanie statystyczne. 46
10.5. Wielkość próby 47
10.6. Problem reprezentatywności próby. 47
Wykład 11. Planowanie Eksperymentów 49
11.1. Przykład 49
11.2. Badanie korelacyjne. 49
11.3. Badanie quasi-eksperymentalne 49
11.4. Badanie eksperymentalne 50
11.5. Czynniki zakłócające trafność wewnętrzną. 50
Wykład 12. Trafność zewnętrzna planów eksperymentalnych i alternatywne
schematy badawcze 52
12.1. Trafność zewnętrzna eksperymentu 52
12.2. Alternatywne schematy (plany) eksperymentalne 52
12.3. Metody kontroli zmiennych ubocznych 54
12.4. Źródła artefaktów 54
Wykład 13. Procedura Ex post facto (EPF) 56
Wykład 14. Etyka badań naukowych 57
Wykład 1. Czym jest nauka.
Rzetelność naukowa nie jest, jak mogłoby się wydawać, sprawą wyłącznie
warsztatu stosunkowo nielicznej grupy, jaką stanowią aktywni naukowcy, prowadzący
samodzielne badania. Dzieje się tak z kilku powodów.
Po pierwsze, każdy człowiek jest odbiorcą pewnej wiedzy gromadzonej w sposób
mniej lub bardziej naukowy. Aby nie ulegać mechanicznie argumentom typu "jak
dowodzą badania naukowe" lub "jak wynika z testów klinicznych"(zwłaszcza ten ostatni
slogan oznacza zresztą najczęściej niezbyt systematyczne gromadzenie danych) musimy
znać przynajmniej podstawy prowadzenia takich badań. Z badań naukowych (konkretnie
empirycznych badań społecznych) korzystamy również, gdy chcemy zaspokoić swoją
ciekawość czytając w gazecie wyniki różnych ankiet czy sondaży przedwyborczych. Po
Adam Tarnowski Metodologia badań psychologicznych 4
drugie korzystanie z badań naukowych dla wielu z nas nie ogranicza się do biernej
recepcji. Przeprowadzenie samodzielnych badań jest warunkiem uzyskania stopnia
magistra, niekiedy też z przyczyn zawodowych prowadzimy lub zlecamy badania
marketingowe lub sondaże.
Studia psychologiczne są obowiązkowo pięcioletnie. Oznacza to że każdy kto chce
zostać psychologiem powinien „dołożyć” fragment do ogólnego potencjału wiedzy w tej
dyscyplinie. Nie chodzi przy tym jedynie o rozwój wiedzy. Wiedza psychologiczna ma
wciąż „miękki” charakter. Użytkownik tej wiedzy powinien być w pełni świadomy
ograniczeń- probabilistycznego, a nie deterministycznego charakteru twierdzeń,
problemów z nieścisłością wskaźników i definicji, itd., itd... Generalnie, metodologia- i
uczestnictwo w tworzeniu psychologii jako nauki- powinno nauczyć nas krytycyzmu,
odróżniania twierdzeń ustalonych z dużym stopniem pewności i względnie uniwersalnych
od tych, które stanowić mogą jedynie źródło hipotez i inspirację do szukania własnych
rozwiązań problemu.
Obowiązek rzetelności naukowej spoczywa (naturalnie proporcjonalnie do
posiadanych możliwości) nie tylko na osobie prowadzącej badania, ale także na tych,
którzy wiedzę przyjmują.
Zawód psychologa polega na rozumieniu ludzi, opisywaniu i przewidywaniu ich
zachowania, oraz udzielania im pomocy. Do tych celów konieczny jest prawidłowy aparat
pojęciowy i znajomość pewnych zasad. Nie można jednak bezkrytycznie przyjmować ani
tych pojęć, ani też tych zasad. Jednym z największych osiągnięć filozofii nauki jest
świadomość granic- każde twierdzenie naukowe prawdziwe jest tylko w pewnym
zakresie. Jednym z głównych zadań niniejszego skryptu jest pokazanie, jak te granice
wytyczać.
1.1. Psychologia jako pole badań empirycznych.
Pojęcie "nauki społeczne" obejmuje niezwykle szerokie spektrum wiedzy o
człowieku i jego działaniu. Zaliczane do nauk społecznych są psychologia (zwłaszcza
psychologia społeczna, będąca nauką o funkcjonowaniu człowieka jako członka różnych
grup), socjologia (stanowiąca gałąź wiedzy o grupach ludzi i procesach w nich
zachodzących), nauki ekonomiczne, politologia, medycyna (w szczególności
epidemiologia, psychiatria społeczna) czy też prawo. Każda z wymienionych nauk
posiada swój odrębny przedmiot i swoje metody.
Psychologia nie jest jedynie nauką społeczną. Wiele z jej poddyscyplin pokrywa się
w części zakresem i metodami z naukami biologicznymi (neurobiologia, neurofizjologia,
etologia), formalnymi (modelowanie matematyczne, sztuczne sieci neuronowe) czy wręcz
technicznymi (ergonomia). Ostatnich kilkanaście lat przyniosło burzliwy rozwój
interdyscyplinarnych gałęzi wiedzy- nauk o poznaniu (cognitive science), nauk o systemie
nerwowym (neurosciences).
Nauki szczegółowe zatem badają pewien wycinek rzeczywistości. Wycinek ten to z
jednej strony określony przedmiot, dziedzina badań (mówimy tu o redukcji tematycznej w
obrębie danej dyscypliny) oraz specyficzna metoda badań (nazywamy to abstrakcją
metodyczną).
Od razu więc warto stwierdzić, że przedmiotem rozważań będzie wyłącznie
metodologia badań empirycznych. Poza naszymi zainteresowaniami znajdzie się zatem
wiele nauk wykorzystujących zupełnie inną metodologię.
Adam Tarnowski Metodologia badań psychologicznych 5
Weizacker pisze: Stosunek filozofii do tak zwanej nauki pozytywnej można sprowadzić do
następującej formuły: Filozofia stawia takie pytania, jakich niepostawienie było
warunkiem sukcesu metody naukowej. Zawiera się w tym więc twierdzenie, że nauka
zawdzięcza swój sukces między innymi rezygnacji ze stawiania pewnych pytań.(za:
Anzenbacher 1987)
Metodologia ogólna uczy nas, że nauki podzielić można na indukcyjne i dedukcyjne.
Nauki dedukcyjne konstruują swój system wiedzy wychodząc z określonych założeń, ich
rozwój zaś polega na wyciąganiu szczegółowych konsekwencji. Naturalnie badane są
różne systemy założeń i pojęć pierwotnych. Do takich nauk zaliczyć można matematykę,
filozofię, prawo. Nauki indukcyjne funkcjonują odwrotnie- starają się gromadzić
obserwacje jednostkowych faktów i na ich podstawie formułować prawa ogólne.
Jeżeli zatem rozważania ograniczymy do metodologii badań empirycznych, poza naszymi
zainteresowaniami znajdzie się cała grupa nauk dedukcyjnych. Ale nie tylko- również w
obrębie tych nauk, które tradycyjnie deklarują się jako indukcyjne i empiryczne, jak
choćby psychologia, wiele cennych odkryć zostało dokonanych z pominięciem reguł, o
których mowa będzie w tym opracowaniu. Problemy te będą jeszcze dyskutowane przy
omawianiu szczegółowych zagadnień.
Rozdzielenie nauk dedukcyjnych i indukcyjnych jest nieco sztuczne- matematyka
używa elementów indukcji, zaś nauki empiryczne bez dedukcji sprowadzały by się do
katalogowania faktów.
Wygodniej więc będzie przyjmować podział zaproponowany przez Hempla: na
nauki empiryczne i nieempiryczne. Wśród nauk empirycznych wyróżnić można nauki
społeczne i przyrodnicze.
Arystoteles dzielił nauki na matematykę (zajmującą się tym co jest nieruchome i nie
istnieje osobno) fizykę (to co ruchome i istniejące osobno) oraz metafizykę (obejmuje to
co nieruchome i istniejące osobno). Dziś ten podział ma charakter historyczny- niemniej
warto zwrócić uwagę na celną obserwację: nauki formalne (nieempiryczne) zajmują się
opisem cech stałych i ogólnych. Nauki empiryczne zajmują się „tym co ruchome”-
zmiennością zjawisk.
Ciekawy test na temat filozoficznych podstaw wiedzy psychologicznej:
http://www.comnet.ca/~pballan/Appendix1.htm
1.2. Definicja wiedzy naukowej.
Podstawowym, choć jak się dalej okaże nieco sztucznym podziałem jest
rozróżnienie wiedzy naukowej i wiedzy potocznej. Nie każda wiedza, określana jako
naukowa spełniała jej dzisiejsze kryteria. Kasta kapłanów-mędrców stanowiła pierwszą
społeczność, która gromadziła wiedzę w sposób systematyczny. Metodologia ówczesna
bywa nazywana empiryczną- oparta jest na metodzie prób i błędów, prostego
gromadzenia faktów. Przewidywanie nie opierało się na prawach przyczynowo-
skutkowych, lecz na prostej zasadzie, iż po podobnych zjawiskach następować będą
podobne następstwa. Astronomia egipska opierała się na żmudnym zbieraniu informacji-
co tydzień na dachu świątyni siadało dwóch kapłanów twarzami do siebie i rysowało co
widać- łącznie z drugim kapłanem. Takie informacje systematycznie gromadzono przez
tysiące lat. Tak więc nie tylko przedsięwzięcia budowlane, lecz również „naukowe” z
tamtych czasów były możliwe dzięki wytrwałości wielu pokoleń.
Adam Tarnowski Metodologia badań psychologicznych 6
Z Egiptu wywodzi się pierwsze dzieło metodologiczne, opisujące sposób zapisu
liczb. Autorem jego jest Ahmes, zaś skromny tytuł Reguły badania wszystkich rzeczy i
poznania wszystkiego, co istnieje, każdej ukrytej tajemnicy świadczy, iż już wówczas za
dominującą cechę wiedzy naukowej uważano możliwość jej matematycznej formalizacji.
W świetle współczesnych poglądów wiedza, aby została uznana za naukową spełniać
musi kilka kryteriów. Do najważniejszych z nich zaliczyć wypada sprawdzalność,
obiektywizm, ścisłość języka.
Sprawdzalność. Każde stwierdzenie, jeżeli chce pretendować do miana naukowego
powinno być sprawdzalne. Popper postulował, aby kryterium tego co naukowe była
potencjalna możliwość falsyfikacji teorii. Zamiast pytać „jakie są argumenty świadczące o
prawdziwości teorii X” zastanawiał się „jakie warunki musiały by zostać spełnione aby
teorię X odrzucić”. Jeśli teoria jest zawsze w każdych warunkach prawdziwa- nie jest
teorią naukową na gruncie nauk empirycznych.
Obiektywizm. Warunek ten oznacza, że badacz powinien prowadzić badania w sposób
nietendencyjny, nie starając się udowodnić na siłę swoich hipotez. Badanie powinno być
opisane w taki sposób, aby każdy mógł je powtórzyć, i sprawdzić w ten sposób uzyskane
rezultaty. Doświadczenie uczy jednak, że warunek ten nie jest łatwy do spełnienia. Często
badacze przejawiają wobec sformułowanych przez siebie hipotez "ojcowski afekt". Jeżeli
hipoteza nie potwierdza się, starają się zmienić metody analizy danych lub zwalają winę
na warunki badania, dobór grupy itp. Najczęściej, o ile samo badanie przeprowadzone
zostało prawidłowo rzetelna interpretacja jego wyników może być cenna dla nauki,
niezależnie od tego, czy potwierdziła się teoria autora badań, czy też nie.
Każdy wynik eksperymentu czy obserwacji powinien dać się powtórzyć w podobnych
warunkach. Nakłada to na badacza obowiązek z jednej strony przestrzegania ogólnych
reguł postępowania, z drugiej zaś przedstawiania możliwie pełnej dokumentacji
prowadzonych badań, tak aby każdy, komu wyniki wydadzą się wątpliwe, mógł
eksperyment powtórzyć. Oczywiście spełnienie tego warunku nie zawsze jest możliwe.
Nawet w dziedzinie tak ścisłej jak astronomia naukowcy często zdobywają wiedzę
obserwując zjawiska unikalne, które zdarzą się powtórnie dopiero za wiele lat. Również
na obszarze nauk społecznych spełnienie kryterium powtarzalności jest często trudne.
Jeżeli badania np. prowadzone są w ekstremalnych warunkach, narażających na szwank
zdrowie, czy choćby psychikę uczestników (por. eksperymenty w psychologii społecznej)
powtórzenie wyników jest często niemożliwe. Nawiasem mówiąc ograniczenia etyczne
stanowią często największe ograniczenie dla ścisłości badań w naukach społecznych.
Wielu naukowców za nic nie przyzna się jednak, że zaniechało badania jakiegoś zjawiska
z tak "pozamerytorycznego" powodu.
Jak trudno jest obiektywnie przeprowadzić badanie wykazano na jednym z
uniwersytetów amerykańskich, polecając dwóm grupom studentów przeprowadzić
samodzielnie proste badanie ankietowe. Jedna z grup została poinformowana, że ich praca
służyć będzie rozwiązaniu niezwykle istotnego problemu badawczego, drugiej grupie zaś
te samo badanie przedstawiono jako ćwiczenie praktycznych umiejętności badawczych,
bez konkretnego zastosowania. W rzeczywistości wszyscy studenci prowadzili to samo
badanie, w którym hipotezy były fałszywe. Mimo, że obie grupy miały prowadzić swoje
badania obiektywnie i według tych samych reguł, grupa "zaangażowana" otrzymała
wyniki potwierdzające postawioną (fałszywą) hipotezę. Rezultat taki świadczy o trudności
Adam Tarnowski Metodologia badań psychologicznych 7
w zachowaniu rzeczywistego obiektywizmu w trakcie prowadzenia badań.
Ścisłość języka naukowego oznacza dbałość o precyzję wypowiedzi i obowiązek
podawania dokładnych definicji wprowadzanych przez siebie pojęć. Pojęcia naukowe
winny posiadać sens empiryczny, tzn. dla każdego teoretycznie opisywanego zjawiska
należy określić wskaźniki- zjawiska obserwowalne.
1.3. Trzy światy Poppera
"... świat składa się przynajmniej z trzech ontologicznie różnych podświatów, lub też,
inaczej mówiąc [...] istnieją trzy światy: pierwszy jest światem fizycznym, światem stanów
fizycznych; drugi jest światem duchowym lub światem stanów umysłowych, trzeci zaś jest
światem intelligibiliów lub idei w obiektywnym sensie, jest to świat możliwych przedmiotów
myśli: świat teorii samych w sobie, ich relacji logicznych, argumentów i sytuacji
problemowych samych w sobie."( K. Popper (1992) Wiedza obiektywna. Ewolucyjna teoria
epistemologiczna, Warszawa: PWN 1992,s. 209)
Problem obiektywizmu pojawia się wraz z koniecznością porozumienia się z innymi.
Świat fizyczny odzwierciedlany jest w subiektywnym świecie doznań psychicznych każdego
człowieka. Część tego świata subiektywnego potrafimy jednak przekazywać sobie nawzajem
– i to, co możemy sobie przekazać tworzy świat intersubiektywny.
Warto w tym miejscu zasygnalizować dwa prądy w teorii nauki, powstałe wskutek
dążenia do maksymalnej ścisłości języka. Pierwszy z nich, zwany operacjonalizmem
postulował wyrażanie wszystkich pojęć wyłącznie w terminach zjawisk obserwowalnych.
Pojęcia teoretyczne, o ile w ogóle dopuszczane, traktowane były wyłącznie jako źródło
pomysłów do przewidywania nowych faktów. Popularnym argumentem był tzw. dylemat
teoretyka, sformułowany przez Hempla- "jeżeli pojęcia teoretyczne nie prowadzą do
ustalenia nowych faktów empirycznych- są fałszywe, jeżeli natomiast uda się odkryć
Adam Tarnowski Metodologia badań psychologicznych 8
nowe fakty- stają się zbędne". W skrajnej formie (Bridgman) kierunek ten postulował
definiowanie pojęć przez wskazanie odpowiednich operacji testujących. Nowa metoda
pomiaru wymagała wprowadzenia nowego pojęcia. Polemizując ze stanowiskiem
operacjonalistów stwierdzić można, że w naukach empirycznych, zwłaszcza zaś
społecznych, gdzie istnieje ogromna różnorodność narzędzi badawczych sprowadzenie
wszystkich pojęć teoretycznych do obserwowalnych nastręcza duże trudności. Minimalna
modyfikacja narzędzia badawczego powodowała by zatem konieczność znacznego
przeformułowania teorii, a nawet potrzebę powtórnej weryfikacji uzyskanych wcześniej
rezultatów. Dwaj socjologowie badając pokrewną problematykę dwoma różnymi
ankietami nie mieli by możliwości znalezienia wspólnego języka. Eliminacja z języka
naukowego pojęć nieobserwowalnych stanowiła by dużą komplikację, i na pewno nie
zwiększyła by jego jasności- spróbujmy przeformułować ściśle operacyjnie twierdzenie
„agresja jest wynikiem frustracji”. Można stwierdzić, że operacjoniści dążąc do ścisłości
języka nauki nie docenili znaczenia jego funkcji systematyzacyjnej. Mnożenie pojęć
uniemożliwiłoby w praktyce stworzenie systematycznego obrazu rzeczywistości.
Operacjonalizm miał na celu ograniczenie spekulatywności i niejasności nauk
społecznych na początku XX wieku. W chwili obecnej postulat ten nie jest już w pełni
aktualny. Rozwój metodologii nauk społecznych pozwala już (przynajmniej w odczuciu
autora tego opracowania) na posługiwanie się również konstruktami- pojęciami czysto
teoretycznymi.
Niemniej jednak prowadząc badania empiryczne musimy umieć powiązać terminy
teoretyczne i obserwowalne- będzie o tym mowa w części poświęconej operacjonalizacji
zmiennych.
Drugi kierunek, redukcjonizm, postulował istnienie w nauce (w nauce w ogóle lub
przynajmniej w obrębie jednej gałęzi wiedzy) podstawowego systemu pojęć pierwotnych,
do którego można by sprowadzić wszystkie pozostałe terminy. Naturalnie w naukach o
charakterze dedukcyjnym jest to postulat realizowany- istnieje zestaw pojęć pierwotnych
dla np. geometrii, w dużej mierze starają się go dopracować filozofowie- przynajmniej w
obrębie poszczególnych szkół. W naukach społecznych zadanie jest jednak znacznie
trudniejsze. Mimo podejmowanych prób sprowadzania pojęć związanych z
funkcjonowaniem człowieka do terminów neurofizjologicznych lub też behawioralnych,
nie udało się dotąd stworzyć zadowalającego systemu takich definicji. Jak się wydaje,
musiałby on być bardzo złożony, ponadto raczej hamował by rozwój wiedzy niż
prowadził do nowych odkryć. Niemniej warto pamiętać, że definicje nowych pojęć
powinny jak najściślej wiązać je z już funkcjonującym systemem wiedzy w danej gałęzi
nauki.
Warto zauważyć, że definicja każdego pojęcia winna podawać jego „treść istotną”,
to co z punktu widzenia dyscypliny naukowej jest ważne, i w obrębie tej dyscypliny
pozwala na optymalne formułowanie hipotez i praw. Sformułowanie pojęcia pamięci w
terminach biochemicznych prawdopodobnie nie byłoby użyteczne w obrębie psychologii
wychowawczej (choć naturalnie korzysta ona m.in. z odkryć biochemików).
Antropologiczna definicja człowieka (istota o zwartym parabolicznym łuku zębodołowym)
nie przyda się w psychologii, i odwrotnie. Podobni pojęcie świadomości określonej za
pośrednictwem objętości mózgu w psychologii będzie bezużyteczne.
Wśród teorii analizujących status pojęć teoretycznych warto wspomnieć również realizm.
Przyznaje on pojęciom teoretycznym status równoważny terminom obserwacyjnym.
Mogą one zatem również być prawdziwe albo fałszywe, stanowią naukowy, przybliżony
opis rzeczywistości. Według celnej metafory K. Poppera "teorie są sieciami,
chwytającymi to, co nazywamy światem; służą do racjonalnego ujmowania, wyjaśniania i
Adam Tarnowski Metodologia badań psychologicznych 9
opanowywania świata. Celem naszych wysiłków jest to, aby oczka tych sieci były coraz
drobniejsze" (Popper 1977, s.53). Popper również krytykował nadmierną precyzję języka
nauki. Użyteczne pojęcia charakteryzuje średnia precyzja (np. agresja jako zachowanie
którego celem jest wyrządzenie szkody innym) co umożliwia zarówno nadawanie im
empirycznego sensu (zgodzimy się że miarą agresji dziecka może być liczba bójek które
w ciągu tygodnia zainicjował) jak i wbudowanie pojęcia w szerszą teorię (np. koncepcję
frustracji-agresji).
Najczęściej badania prowadzone są w oparciu o teorię już funkcjonującą. Jeżeli jest
to spójna i dobrze opracowana powszechnie znana teoria badacz nie ma obowiązku tak
dokładnej analizy wprowadzanych pojęć- wystarczy że powoła się na dokonane już
ustalenia teoretyczne. Wprowadzając natomiast nowe pojęcia do tej teorii zobowiązany
jest zachować spójność z wcześniejszymi ustaleniami. Na przykład badacz- psycholog
opierający się na behawioralnej koncepcji człowieka (analizującej działanie jednostki w
kategoriach bodźców- reakcji, nawyków i uczenia się zachowań) popełni błąd odwołując
się bezpośrednio do systemu wyższych wartości. Aby zachować spójność teorii powinien
raczej mówić o "systemie wewnętrznych nagród", lub też zmienić przyjmowaną
koncepcję człowieka. W obrębie psychologii humanistycznej definiowanie wartości jest z
pewnością łatwiejsze.
1.4. Wiedza zdroworozsądkowa
Tradycyjnie wiedzy zdroworozsądkowej, w odróżnieniu od naukowej, przypisuje się
następujące cechy:
1. dowodzenie jedynie na podstawie wybranych przypadków- tendencyjny
dobór tych, które potwierdzają tezę.
2. Uznawanie poglądu, że jeśli B zdarzyło się później niż A , to A jest
przyczyną B.
3. Interpretacja współwystępowania jako przyczynowości
4. Rozumowanie przez analogię- jeśli A i B mają podobne niektóre cech, to
zapewne będą miały podobne i inne (ukryte teorie osobowości)
5. Złudzenie powszechności zjawiska – to co prawdziwe względem niektórych
członków grupy nie musi być prawdziwe o innych.
6. Nieuprawnione indywidualizowanie- jeśli coś jest prawdziwe w stosunku do
grupy, musi też być prawdziwe wobec każdego jej członka
7. Uleganie niemerytorycznej argumentacji (akceptacja jedynie na podstawie
autorytetu).
(wg Paluchowski 2001)
Powyższe cechy niestety odnoszą się do bardzo wielu twierdzeń naukowych. Listę
powyższych błędów logicznych należy więc traktować raczej jako przestrogę, w jako sposób
umysł – zarówno „człowieka z ulicy” jak i naukowca może zbłądzić badając rzeczywistość.
Adam Tarnowski Metodologia badań psychologicznych 10
Wykład 2. Prawdziwość wiedzy naukowej.
2.1. Zagadnienie prawdziwości wiedzy.
Rozwój nauki polega na weryfikacji różnorodnych twierdzeń. W naukach
empirycznych dokonuje się tego przez badanie rzeczywistości- zestawianie teoretycznych
postulatów z realnymi faktami. Często mówi się również o statystycznej weryfikacji
hipotez. Opisując wyżej reguły tworzenia poprawnych definicji pominęliśmy również fakt
prawdziwości (istnienia) przedmiotu definicji. W tej sytuacji należy postawić pytanie- co
na gruncie nauk empirycznych oznacza prawdziwość - pojęć, twierdzeń i teorii.
W naukach dedukcyjnych sprawa jest prostsza- twierdzenie jest prawdziwe, jeżeli da się
za pomocą reguł logicznego wnioskowania wyprowadzić z przesłanek- wcześniej
udowodnionych twierdzeń lub aksjomatów (przyjmowanych bez dowodu podstawowych
stwierdzeń danej dziedziny wiedzy).
Również w naukach empirycznych korzystamy niekiedy z dedukcji, istnieją nawet duże
obszary wiedzy jak np. psychometria- teoria pomiaru w psychologii o wysokim stopniu
sformalizowania. W tym przypadku prawdziwość wniosku uzależniona jest jedynie od
prawdziwości przesłanki, prawdziwość zaś teorii zależy od wartości jej aksjomatów.
Ścisłość tych teorii bywa jednak często złudna. Należy pamiętać, że za każdym pomiarem
stoją dwa podstawowe założenia teorii pomiaru- założenie istnienia relacji (tj.
twierdzenie, że w ogóle istnieje związek między mierzoną rzeczywistą cechą a wartością
pomiaru na skali) oraz założenie jednoznaczności tej relacji (tzn. każdej wartości cechy
można przyporządkować tylko jedną wartość na skali). W wielu badaniach ankietowych i
testowych założenia te wydają się wątpliwe.
2.2. Prawdziwość pojęć
Analizując zagadnienie prawdziwości pojęć teoretycznych (prawdziwość
obserwowalnych zjawisk na ogół nie budzi wątpliwości), należy stwierdzić że pojęcie
prawdziwe jest to po prostu pojęcie użyteczne. Użyteczność ta jest dwojakiego rodzaju. Z
jednej strony pozwala porządkować teorię, z drugiej trafnie opisywać rzeczywistość.
Pozwalając uporządkować pewien obszar rzeczywistości pojęcie samo staje się
rzeczywiste. Jeżeli np. rozważamy prawdziwość pojęcia "ekstrawertyk" interesuje
zarówno to, czy rzeczywiście da się na podstawie cech układu nerwowego wyodrębnić
grupę ludzi o cechach przypisywanych temu typowi temperamentu, jak również czy
rzeczywiście znamy ludzi do których określenie to pasuje.
W naukach empirycznych, szczególnie społecznych pojęcia mają często charakter
nieostry. Możemy wyobrazić sobie typowego choleryka, znamy jednak też z pewnością
osoby do których to pojęcie pasuje tylko pod pewnym względem. Dlatego też we
współczesnej metodologii klasyczną logikę dwuwartościową wypiera często
wielowartościowa (tzw. rozmyta). Zwykle też bardziej użyteczne niż wskazanie typu do
jakiego można zaliczyć daną osobę jest określenie jej pozycji na jakimś wymiarze
(kontinuum). W naszym przypadku mogłoby to być kontinuum, na którego jednym końcu
znajduje się typowy ekstrawertyk, na drugim zaś introwertyk.
Podejście wielowymiarowe do opisu rzeczywistości z kolei przywraca użyteczność
klasycznym, jakościowym typom. Przykładowo osoba ekstrawertywna charakteryzuje się
innymi właściwościami jeśli jest emocjonalnie zrównoważona, innymi zaś kiedy nie.
Zatem użyteczne z punktu widzenia aktualnej wiedzy o temperamencie staje się
przywrócenie klasycznych pojęć 4 typów osobowości- cholerycznego, sangwinicznego,
flegmatycznego i melancholicznego.
Adam Tarnowski Metodologia badań psychologicznych 11
Pułapkę stanowią tzw. ukryte paradygmaty- nieuświadomione założenia które
rzutują na myślenie badacza o rozważanym przedmiocie. Dobrze opisane na gruncie
psychologii są ukryte teorie osobowości, najczęściej mające swoje źródło w
nieuprawnionym uogólnianiu pojedynczych przypadków, np. badając ekstrawersję badacz
będzie przyjmował do wiadomości tylko te fakty które pasują do jego znajomego,
typowego ekstrawertyka.
Ćwiczenie (na podstawie eksperymentu Kelly’ego). Narysuj trójkąt. Wypisz na
jego wierzchołkach (A,B,C) imiona trzech znajomych. Zastanów się i zapisz jaką cechę
osobowości posiadają A i B, której nie posiada C. Następnie zanotuj, jaką cechę
posiadają A i C, natomiast nie posiada jej B. Uzupełnij schemat tym, co posiadają B i C w
odróżnieniu od A. Wypisane przez Ciebie cechy to Twoje osobiste konstrukty, elementy
ukrytej teorii osobowości. Należy uświadomić ją sobie, aby nie interferowała z teoriami
naukowymi.
2.3. Prawdziwość twierdzeń
Prawdziwość twierdzenia w nauce o charakterze indukcyjnym nie jest tak prosta do
wykazania, jak w przypadku wnioskowania dedukcyjnego. Indukcja polega na
wnioskowaniu ze szczegółowych przesłanek na temat ogólnych prawidłowości, przy
czym rzadko mamy do czynienia z indukcją zupełną- tj. ze sprawdzeniem wszystkich
możliwych podstawowych faktów do których odnosić się będzie twierdzenie ogólne.
Zwykle zakres wniosku przekracza wielokrotnie zakres zebranych przesłanek. Jest to
istota badania reprezentacyjnego- na podstawie wyników np. ankiety zebranych od
kilkuset osób wyciągamy wnioski o wszystkich mieszkańcach danego regionu.
Wnioskowanie indukcyjne jest zatem zawodne i niepewne- jest to cena jaką musimy
zapłacić w sytuacji, gdy ogólne twierdzenia chcemy weryfikować w oparciu o niewielki
zbiór faktów. Dzięki jednak metodom statystycznym jesteśmy dziś w stanie oszacować
prawdopodobieństwo takich twierdzeń.
Reasumując, twierdzenia funkcjonujące w obrębie psychologii mogą być prawdziwe na
mocy dowodu dedukcyjnego (np. 16% populacji posiada II wyższy niż 115, wynika to z
zasad konstrukcji skali) bądź na mocy indukcyjnego dowodu empirycznego (Np. osoby o
wysokim II charakteryzują się najczęściej lepszymi wynikami w nauce). Te ostatnie
prawa nie są zwykle bezwyjątkowe, orzekają jedynie o prawdopodobieństwie zachodzenia
pewnych zjawisk.
2.4. Prawdziwość teorii
Prawdziwość teorii naukowej, czyli systemu twierdzeń i terminów wiąże się z
kilkoma czynnikami.
Po pierwsze, teoria ta musi być niesprzeczna z obserwowanymi faktami. Ważne
też, aby jej struktura umożliwiała taką weryfikację. Jak wspomniano, zdaniem Poppera
jeżeli teoria stanowi zestaw zdań zawsze prawdziwych niezależnie od wyniku
doświadczenia zwykle nie wyjaśnia ona wiele i wartość jej jest niska.
Druga cecha prawdziwej teorii to jej użyteczność. Einstein wykazał, że można
opisać wszechświat za pomocą teorii Ptolemeusza (tzn. zakładając, że Ziemia jest
nieruchomym jego centrum) jak i według Kopernika, jednak opis ruchu ciał niebieskich za
pomocą teorii Ptolemeusza wymaga niezwykle skomplikowanego aparatu
matematycznego. Sam zresztą Kopernik (pamiętajmy że jego model powstał blisko
dwieście lat zanim Newton sformułował teorię grawitacji) uznawał swój system za lepszy
tylko dlatego, że wymagał mniejszej liczby hipotetycznych epicykli do opisania
obserwowalnych zjawisk. Tak więc z dwóch teorii niesprzecznych z doświadczeniem za
Adam Tarnowski Metodologia badań psychologicznych 12
bardziej prawdziwą uznajemy tą, która podsuwa nam wyjaśnienie prostsze i bardziej
użyteczne.
Teoria Kopernika stanowi dobry przykład ewolucji twierdzeń naukowych. Została
ona stworzona jako model prostszy od poprzedniego, wymagający przyjęcia mniejszej
ilości hipotetycznych konstrukcji. Przyrządy obserwacyjne nie mogły w tamtym czasie
dostarczyć dowodów na jej poparcie, przewidywania – do czasów Keplera -były
niedokładne, zaś mechanizm zjawisk zasadniczo nieznany aż do odkrycia teorii grawitacji
przez Newtona. A więc głównie prostota stanowiła argument za przyjęciem teorii. Model
Kopernika stał się inspiracją dla dalszego rozwoju astronomii, i na tym polu chyba jego
znaczenie jest największe.
Prostota teorii ma znaczenie w procedurze jej weryfikacji. Wyobraźmy sobie dwie
teorie- prostszą, gdzie zjawisko B tłumaczone jest za pomocą dwóch założeń A1 i A2,
oraz bardziej skomplikowaną, zakładającą cztery przyczyny.
(A1 A2) B
(A1 A2 A3 A4) B
Jeśli zjawisko B nie zachodzi zgodnie z przewidywaniem, znaczy to że jedna z
dwóch przesłanek jest fałszywa. Łatwiej zidentyfikować fałszywe twierdzenie i poprawić
teorię, kiedy potencjalnych fałszywych założeń jest mniej. Naturalnie badana
rzeczywistość jest z natury rzeczy skomplikowana, i nadmiernie uproszczone modele
mogą nie odpowiadać prawdzie.
Zadaniem wiedzy naukowej jest opis, wyjaśnianie i przewidywanie
rzeczywistości. Prawdziwość tej wiedzy jest zatem zrelatywizowana do tych trzech celów.
Teorie naukowe nie muszą być prawdziwe w sensie metafizycznym, tzn. nie wymaga się
aby w sposób niepodważalny i ostateczny docierały do istoty rzeczywistości. Wystarczy,
jeżeli spełniać będą te trzy cele- wierny opis rzeczywistości, wygodne wyjaśnianie faktów
i relacji między nimi oraz możliwość przewidywania zachodzących zjawisk.
Teoria to szereg powiązanych twierdzeń. Empiryczna falsyfikacja, a więc niezgodny z
doświadczeniem wynik zaprzecza całemu systemowi, koniunkcji twierdzeń. Wiemy zatem, że
jedno z nich jest fałszywe. Jeśli teoria posiada wiele założeń, odnalezienie fałszywego może
sprawić trudność. W teorii prostej łatwiej jest zaplanować eksperymenty testujące założenia.
Żadna teoria nie jest w zupełności prawdziwa, jednak teoria sprawdzona w wielu
doświadczeniach jest lepsza, gdyż tłumaczy szerszy zakres faktów.
Adam Tarnowski Metodologia badań psychologicznych 13
Wykład 3. Uwagi o języku naukowym
Jednym z kryteriów wiedzy naukowej jest ścisłość. Za realizację tego postulatu w
dużym stopniu odpowiada język naukowy. Winien on opierać się na precyzyjnych pojęciach,
dla których możliwe jest opracowanie obserwowalnych wskaźników, poddawać się
formalizacji matematycznej i umożliwiać budowanie poprawnych teorii według precyzyjnych
reguł.
Język naukowy w dużym stopniu, w odróżnieniu od naturalnych języków etnicznych
spełniać winien postulaty stawiane językom formalnym.
Języki formalne
1. Nie powstały w sposób naturalny, lecz zostały opracowane świadomie w określonym
celu;
2. Charakteryzują się precyzją i przejrzystością;
3. Nie mają charakteru ogólnego- ich stosowanie ogranicza się zwykle do pewnej
wąskiej dziedziny;
4. Charakteryzują się ostrością reguł składniowych.
Realizacja tych postulatów wobec zdań potocznych (np. w celu uściślenia pytania
która godzina?) prowadzić może do absurdu. Niemniej, jeśli twierdzenie potoczne „woda
dostatecznie ogrzana zagotuje się” miałoby stać się przedmiotem naukowej weryfikacji z
pewnością wymagało by przekształcenia.
Teorią języka (ogólniej- teorią znaków) zajmuje się semiotyka. Znak jest to (1)
spostrzegany zmysłowo substrat materialny (2) dostarczający informacji o innych
przedmiotach (3) dla określonej grupy odbiorców. Tym trzem składnikom definicji znaku
odpowiadają trzy działy semiotyki
1. Syntaktyka (tworzenie wyrażeń zgodnych z regułami języka)
2. Semantyka (określanie relacji między wyrażeniami a empiryczną rzeczywistością,
teoria znaczenia)
3. Pragmatyka (badanie relacji między wyrażeniami a ich odbiorcą)
3.1. Nazwy.
Desygnat: przedmiot o którym nazwa jest orzekana. Nazwy ze względu na
istnienie i liczbę desygnatów można podzielić na
1. Puste
2. Niepuste
a. Ogólne
b. Jednostkowe
Z innego zaś punktu widzenia na indywidualne i generalne.
Zakres nazwy (denotacja) to zbiór wszystkich desygnatów.
Nazwa może być ostra (wówczas o każdym przedmiocie da się orzec czy stanowi
jej desygnat czy też nie) lub nieostra (np. agresywny) .
Adam Tarnowski Metodologia badań psychologicznych 14
Treść nazwy to zespół cech charakterystycznych dla wszystkich jej desygnatów.
Treść istotna to taka z której można wywieść inne ważne cechy, nieistotna to zbiór
prawdziwych, lecz przypadkowych własności.
Znaczenie nazwy- to sposób rozumienia nazwy, określa ono konotację: zespół
cech charakterystycznych dla zakresu nazwy, za pomocą którego myślimy o jej
desygnatach.
Pojęcie- jest to znaczenie nazwy generalnej.
Pojęcia mogą być niejasne (kiedy brak jednoznacznego zespołu składających się
na dane pojęcie cech) lub nieostre (kiedy istnieją przedmioty, o których nie potrafimy
orzec czy stanowią desygnat odpowiadającej pojęciu nazwy)
3.2. Problem nadznaczenia.
W nauce funkcjonują także pojęcia nieobserwowalne. Są one inferowane na
podstawie obserwowalnych faktów. Oznacza to, że o zjawisku X orzekamy obserwując
jego wskaźniki, niemniej X nie jest definiowany przez te wskaźniki. Treść tych pojęć
zawiera, obok pojęć obserwacyjnych, także inne, dodatkowe elementy. Nie jest to wada
pojęć, przeciwnie- właśnie funkcjonowanie takich pojęć pozwala na rozwój nauki. Dzięki
temu teoria jest płodna- może generować hipotezy mówiące o zjawiskach innych niż
dotąd zaobserwowane. Np. dzięki takiemu nadznaczeniu pojęć używanych do opisu
dynamiki grup w psychologii społecznej można używać do stawiania hipotez odnośnie
zachowań ludzi w środowisku Internetu.
Cechy dyspozycyjne.
Cecha tego typu oznacza skłonność obiektu do zachowania się w określony sposób
w pewnych warunkach.
Aparat pojęciowy psychologii składa się więc z trzech rodzajów terminów:
Pojęć obserwacyjnych („częstość skurczów serca”)
Pojęć dyspozycyjnych („uległość społeczna”)
Pojęć teoretycznych, oznaczających inferowane zjawiska ukryte o mniej
lub bardziej złożonej strukturze (introwertyk).
3.3. Zdanie w sensie logicznym
jest wyrażeniem, któremu można przypisać prawdziwość lub fałsz. Zatem
sensowność zdania zależy od tego, czy można wskazać reguły jego weryfikacji. Wyróżnia
się 3 grupy reguł:
1. Aksjomatyczne- niektóre twierdzenia uznaje się za bezwarunkowo prawdziwe;
2. Dedukcyjne- logiczna zależność od wcześniej przyjętych twierdzeń.
3. Empiryczne- stwierdzenie zgodności z sytuacją empiryczną.
Nie są zdaniami pytania, oceny i dyrektywy, oraz niektóre typy definicji.
Klasyfikacja zdań według Kanta. Zdania których prawdziwość stwierdzamy
sposobem 1 i 2 to zdania a priori, ich prawdziwość nie zależy od doświadczenia. Zdania 3
– są to zdania a posteriori, zależne od doświadczenia.
Zdania analityczne rozwijają treść terminów. Ich zaprzeczenie prowadzi do
sprzeczności.
Adam Tarnowski Metodologia badań psychologicznych 15
Zdania syntetyczne wykraczają poza treść zawartych terminów. Ich zaprzeczenie
nie prowadzi do sprzeczności.
Zdania syntetyczne a priori- rozszerzające wiedzę a równocześnie pewne. Kant sądził,
że taki status mają twierdzenia np. geometryczne. Można je wyprowadzić z aksjomatów, a
równocześnie pozwalają na opis świata wnioskowanie i przewidywanie.
Współczesna interpretacja (Poincare) jest jednak inna. Przyjmuje się, iż prawa
geometrii jako opis rzeczywistej przestrzeni przyjmowane są na zasadzie konwencji, nie z
apodyktyczną pewnością.
J= <S, Z, Sk, In, D)
Język jest systemem złożonym ze słów, zdań, reguł składni, Reguł
inferencyjnych (uzasadniania jednych zdań za pomocą innych) oraz denotacji- reguł
wiążących język z empirią. Sądy- opisują rzeczywistość empiryczną.
Pojęcie Zdanie
(syntaktyka)
Teoria (Reguły
wewnętrzne)
Przedmioty
Sąd Prawa empiryczne
Nadawanie
znaczenia
(denotacja)
Reguły
interpretacji (zasady łączące)
Wskazanie
operacji
testującej
Świat symboli
(znaków)
Świat faktów
Adam Tarnowski Metodologia badań psychologicznych 16
Wykład 4. Elementy logiki. Definicje.
4.1. Logika
Logika to formalna nauka o rozumowaniu.
Zdanie w sensie logicznym jest to wyrażenie, które może przyjmować wartości
logiczne prawdy lub fałszu (w logice dwuwartościowej).
Negacja (nieprawda, że p jest prawdziwe)
p
Podstawowe formy zdań złożonych w logice to:
Koniunkcja (Zarówno p jak i q są prawdziwe)
P Q P Q
1 1 1
1 0 0
0 1 0
0 0 0
Alternatywa (p jest prawdziwe lub q jest prawdziwe)
P Q P Q
1 1 1
1 0 1
0 1 1
0 0 0
Implikacja (jeśli p jest prawdziwe, to q jest prawdziwe)
P Q P q
1 1 1
1 0 0
0 1 1
0 0 1
Adam Tarnowski Metodologia badań psychologicznych 17
Tożsamość (p jest prawdziwe wtedy i tylko wtedy, kiedy q jest prawdziwe)
P Q P q
1 1 1
1 0 0
0 1 0
0 0 1
Szczególnie istotną rolę w naukach empirycznych spełnia implikacja, ponieważ taki
status mają twierdzenia przewidujące empiryczne (obserwowalne) konkluzje na podstawie
teoretycznych przesłanek. Zasadniczy problem polega jednak na tym, że to konkluzja jest
obserwowalnym zjawiskiem. Zatem o przesłankach wnioskujemy na podstawie konkluzji. A
więc rozumowanie nie jest niezawodne (jak miałoby to miejsce w sytuacji odwrotnej).
Prawdziwa konkluzja nie świadczy o prawdziwości przesłanki. Obserwowane
zjawisko może wynikać z wielu różnych przyczyn.
Powstaje pytanie o sens tworzenia modeli teoretycznych i poddawania ich testom
empirycznym, skoro nie można ostatecznie ustalić ich prawdziwości. Jednak model który
został sprawdzony w wielu badaniach posiada większą ogólność, wyjaśnia więcej faktów,
integruje większą liczbę danych i dlatego winien być uznany za bardziej zadowalający.
Kwantyfikatory:
Kwantyfikator ogólny
x – dla każdego (dowolnego) x... Stanowi koniunkcję twierdzeń orzekających o
pewnej własności wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu
kwantyfikator ogólny wystarczy wskazać jeden obiekt, który takiej własności nie posiada.
Szczegółowy
x Istnieje taki x, że... Stanowi alternatywę twierdzeń orzekających pewną własność o
wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu kwantyfikator szczegółowy,
należy wykazać że żaden z x takiej własności nie posiada.
4.2. Definicje
Definicje pomagają w uściśleniu języka naukowego. Charakteryzują przedmioty,
umożliwiają wyrażanie jednych pojęć za pomocą innych bądź wprowadzają do języka nowe
pojęcia.
Dobra definicja pojęcia musi być zarazem formalnie poprawna i poznawczo
użyteczna. Aby jednak prześledzić w jaki sposób zapewnić jej te cechy, należy najpierw
określić do jakiego rodzaju definicja należy.
Wyraz definiowany to definiendum, wyrażenie określające to definiens.
Najbardziej użyteczny podział definicji wyróżnia definicje projektujące i
sprawozdawcze. Projektujące dzieli z kolei na konstrukcyjne i regulujące.
Adam Tarnowski Metodologia badań psychologicznych 18
Definicje projektujące nie są zdaniami w sensie logicznym. Wyrażają one tylko
decyzję ustalenia pewnego sposobu rozumienia słów, konwencji terminologicznej.
Przez zakres pamięci świeżej rozumieć będziemy dalej poprawnie odtworzonych słów z
podanej listy.
Definicje konstrukcyjne wprowadzają nowe pojęcia, regulujące precyzują znaczenia
już istniejących (wyostrzają zakres i usuwają wieloznaczność).
Definicje projektujące są zdaniami analitycznymi a priori. Wprowadzenie nowego
pojęcia wymaga jednak uzasadnienia jego sensowności.
Definicje sprawozdawcze zdają sprawę z zastanego sposobu rozumienia słowa. Są
zdaniami w sensie logicznym, mogą być prawdziwe lub fałszywe. Ekstrawersja wg
psychoanalityków jest to cecha umysłu odpowiadająca za sprawność myślenia i innych
czynności poznawczych, umożliwiająca jednostce korzystanie z nabytej wiedzy oraz skuteczne
zachowanie się wobec nowych zadań i sytuacji.
Pewne szczególne rodzaje definicji to:
1. Definicje aksjomatyczne- służą do wprowadzania pojęć pierwotnych. Są to definicje
kontekstowe, tj. uwikłane w zdania będące aksjomatami systemu. Definicja pojęcia
nie jest podana wprost, lecz jest ono użyte tak, aby można się było domyślić jego
znaczenia. Przykładem może być błąd pomiaru testu, wg. Gulliksena.
a. Wynik otrzymany to suma wyniku prawdziwego i błędu pomiaru
b. Średnia arytmetyczna błędów pomiaru wynosi 0.
c. Korelacja między wynikiem a błędem wynosi 0
d. Korelacja błędów w dwóch pomiarach wynosi 0
2. Definicje cząstkowe. Mają formę okresu warunkowego (implikacji) A B. A więc
tylko o przedmiotach posiadających cechę A można orzec, czy są B. Przedmioty nie
posiadające A nie są określone co do bycia B. Osoba która rozwiązała test jest
inteligentna. – ale na nierozwiązanie testu mogły wpłynąć inne niż brak inteligencji
przyczyny. Szczególnym przypadkiem są definicje redukcyjne, pozwalające na
redukcję terminu teoretycznego do zdań syntetycznych (sprawdzalnych), oraz
definicje operacyjne, wskazujące jaka procedura pozwoli ustalić, czy mamy do
czynienia z przedmiotem definiowanym.
4.3. Błędy definicji.
Nieostrość. (Istnieją obiekty o których nie można orzec czy należą do zakresu
definiowanego pojęcia)
Nieadekwatność Jeżeli nasza definicja ma charakter sprawozdawczy, a więc służy
uściśleniu znaczenia jakiegoś funkcjonującego już terminu, należy zadbać o jej prawidłowy
zakres. Nie może ona być zbyt wąska, co ma miejsce wtedy, kiedy nie obejmuje wszystkich
definiowanych zjawisk (np. "uwaga jest to selekcja napływającej informacji"- definicja taka
nie obejmuje wielu zjawisk związanych z tym pojęciem). Nie powinna być również zbyt
szeroka (np. "chory psychicznie jest to człowiek, który cierpi lub przysparza cierpienia
innym"- niewiele osób można by uznać za zdrowe w świetle takiej definicji). Między
zakresami może zachodzić nawet wykluczanie- Wolność to uświadomiona konieczność.
Idem per idem- błędne koło pośrednie i bezpośrednie.
Gatunek to zbiór organizmów o wspólnym, różnym od innych gatunków pochodzeniu.
Adam Tarnowski Metodologia badań psychologicznych 19
Ignotum per ignotum, nieznane przez nieznane. Może mieć charakter względny
(kiedy użyty w definiensie termin nie jest znany odbiorcy) lub bezwzględny (kiedy w ogóle
nie był wcześniej wprowadzany)
Sprzeczność- kiedy wynika z niej zdanie sprzeczne xyx y2
Definicje należy ściśle odróżnić od zdań empirycznych np. Ssaki to kręgowce, które
we wczesnym okresie życia żywią się mlekiem matki może być rozumiane dwoiście.
Poprawna definicja powinna wiązać wprowadzany termin z funkcjonującymi
wcześniej w danej dziedzinie wiedzy.
Warunki formalnej poprawności definicji nie zapewniają jednak jeszcze jej
użyteczności. Aby definicja była cenna z naukowego punktu widzenia, spełniać musi jeszcze
kilka dodatkowych kryteriów. Otóż po pierwsze, przedmiot definicji musi być ważny dla
danej dziedziny wiedzy. Istnieje wiele pojęć zdefiniowanych, które nigdy później nie zostały
użyte, lub których żywot okazał się krótki. Po drugie, cechy, za pomocą których termin jest
określany, również muszą być istotne i dobrze go określać. Definiując np. zespół objawów
charakterystycznych dla np. ospy można spokojnie pominąć podwyższoną temperaturę, która
jest znamienna także dla wielu innych chorób. Aby proponowana definicja była użyteczna
terminy w niej występujące nie mogą stanowić mieszanki pojęć funkcjonującej w różnych
teoriach. Jest to częste zjawisko w naukach empirycznych, a szczególnie społecznych,
ponieważ przyrost wiedzy polega tu nie tylko na dobudowywaniu nowych elementów do
dawnych ustaleń (jak w naukach ścisłych) ale polega często na tworzeniu od podstaw nowych
teorii.
Adam Tarnowski Metodologia badań psychologicznych 20
Wykład 5. Model badania naukowego.
5.1. Model hipotetyczno-dedukcyjny.
Nauka nie rozwija się poprzez tworzenie ogólnych twierdzeń drogą indukcji na
podstawie jednostkowych faktów. Model naukowy który wyjaśnia tylko fakty dotąd
zaobserwowane i nie pozwala na prognozowanie nowych faktów zwany jest modelem „ad
Hoc”, i jest dla nauki bezużyteczny (nie spełnia jej celów). Prawidłowy model nie tylko
wyjaśnia zaobserwowane dotychczas zjawiska, ale również pozwala na przewidywanie
dalszych faktów. Taki schemat rozwoju nauki, zaproponowany przez Poppera nosi nazwę
modelu hipotetyczno-dedukcyjnego.
Według tego modelu na podstawie obserwacji i uogólnienia (ale nie indukcji zupełnej)
pierwotnych faktów buduje się hipotetyczne wyjaśnienie zjawiska. Wyjaśnienie to pozwala na
przewidywanie nowych faktów. Badanie weryfikujące teorię (model) pozwala sprawdzić czy
przewidywane fakty rzeczywiście zachodzą. Jeśli tak- można przyjąć proponowane
wyjaśnienie. Jeżeli natomiast postulowane fakty nie zostaną zaobserwowane- proponowany
model należy odrzucić.
Model hipotetyczno-dedukcyjny ma ścisły związek z opisanymi wcześniej
własnościami implikacji logicznej. Obserwowane fakty pierwotne wynikają z przesłanek-
modelu wyjaśniającego. Ale odkrycie możliwego wyjaśnienia nie oznacza jeszcze że
wyjaśnienie jest poprawne- bo możliwych wyjaśnień może być wiele. A więc nie odkrycie
wyjaśnienia zjawisk stanowi zasadniczy cel- ale jego uzasadnienie.
Odmienne reguły stosujemy w kontekście odkrycia, kiedy dążymy do wykrycia
możliwych wyjaśnień, i celem naszym jest sformułowanie modelu niesprzecznego z faktami
pierwotnymi. Odmienne zasady obowiązują w kontekście uzasadniania. W tej sytuacji
staramy się o wysunięcie możliwie wielu hipotez, dotyczących kolejnych faktów, i następnie
hipotezy te krytycznie sprawdzamy.
Struktura nauki jednak jest bardziej złożona. Wiedza nie składa się wyłącznie z
jednostkowych twierdzeń o zależnościach między faktami, ale z hierarchii twierdzeń o coraz
wyższym stopniu ogólności. Jeżeli zatem doświadczenie daje wynik niezgodny z
oczekiwaniami teoretycznymi- oznacza to z pewnością konieczność odrzucenia pewnej
hipotezy, ale niekoniecznie całej teorii.
Świat teorii
Świat faktów Fakty
pierwotne
Model
wyjaśniający
Hipoteza
Fakty
przewidywane
Adam Tarnowski Metodologia badań psychologicznych 21
Teoria tworzona według tego modelu pierwotnie budowana jest przez indukcję,
następnie generowane (dedukowane) i sprawdzane są hipotezy. Gdy model prowadzi do
zgodnych z oczekiwaniami obserwacji- jest rozbudowywany, jeśli nie- korygowany.
Negatywny wynik eksperymentu może niekoniecznie być efektem fałszywej teorii. Być może
przyjmowane w badaniu dodatkowe założenia (np. dotyczące narzędzi badawczych czy
strategii analizy danych) okazały się fałszywe, być może też błąd pojawił się na etapie
wyprowadzania z teorii szczegółowych hipotez. Toteż wynik pojedynczego badania rzadko
obala teorię programową. Niekiedy teorię uważa się za zadowalającą, ponieważ nie udało się
sformułować lepszej. Wówczas formułuje się hipotezy pomocnicze-dodatkowe założenia
pozwalające utrzymać teorię.
Rozwój nauki przebiega skokami- dobrze funkcjonująca spójna teoria początkowo
wyjaśnia wszystkie obserwowane fakty. Potem pojawiają się fakty niezgodne z
oczekiwaniami. Aby je wyjaśnić teoria traci spójność, jest obudowywana systemem hipotez
pomocniczych. W pewny momencie pojawia się konkurencyjna prostsza teoria, niekiedy o
mniejszym zasięgu, szybko ogarniająca cały obszar wyjaśniany wcześniej przez starą teorię.
Tak dokonuje się rewolucja w nauce.
5.2. Cechy dobrej teorii
Reasumując rozważania nad właściwościami teorii naukowych, stwierdzić można
(W. Newton- Smith) iż kluczowe własności dobrej teorii to:
1. Ciągłość obserwacyjna (teoria wyjaśnia wszystkie sukcesy teorii którą zastąpiła)
2. Płodność (zdolność do generowania nowych hipotez)
3. Sukcesy w wyjaśnianiu faktów.
4. Wsparcie dla innych teorii (teoria stanowi część systemu wiedzy)
5. Oszczędność (w zakresie korzystania z hipotez pomocniczych)
6. Wewnętrzna spójność
7. Metafizyczna zgodność (niesprzeczność z światopoglądem badacza)
8. Prostota
Przykład z badań własnych:
Teoria programowa
Teorie szczegółowe
Hipotezy
Przewidywania Dane empiryczne
Adam Tarnowski Metodologia badań psychologicznych 22
Alfa/Bravo. Podejmowanie decyzji a procesy ruchu oka.
Eksperymenty Alfa i Bravo poświęcone były ruchom oka w sytuacji decyzyjnej.
Zgodnie z paradygmatem Fischera prowadzono je w schemacie nakładania się czasowego
(naturalnym) oraz przerwy czasowej, wymuszającym oderwanie uwagi i zwiększenie
udziału czynnika nieintencjonalnego w badaniu.
Badanie polegało na zainscenizowaniu prostej gry losowej, wymagającej
wyszukiwania informacji i podejmowania decyzji. Oczekiwano, że konieczność decyzji
spowoduje spowolnienie czasu reakcji, jednak rezultaty były przeciwne. Robocza
interpretacja (hipoteza pomocnicza) głosiła że na przyspieszenie czasu wpłynęła
motywacja.
Charlie. Obciążenie werbalnej pamięci roboczej a procesy ruchu oka.
W eksperymencie tym, nadal wykorzystującym paradygmat Fischera, analizowano
ruchy oka podczas gdy osoba badana musiała pamiętać (i rozpoznawać) coraz większy
materiał literowy. Znów w miejsce oczekiwanego przyrostu czasu reacji ruchów oka
zaobserwowano jego skrócenie. Co dziwniejsze podobnie jak w badaniach Saula
Sternberga w odniesieniu do czasu reakcji ręką następował liniowy przyrost w funkcji
zwiększającego się obciążenia pamięci.
Wynik eksperymentu Charlie wymusił modyfikację pierwotnej teorii. Przyjęto, że
zadania obciążające mechanizm centralny „odciągają” część zasobów uwagi,
równocześnie kontrola nad ruchami oka przejmowana jest przez mechanizmy silnie
zautomatyzowane, a więc czas ich działania jest krótszy. Taka interpretacja jest również
lepsza w odniesieniu do wyników eksperymentów Alfa/Bravo. Wniosek taki, jako
interpretacja „post-hoc” musiał jednak znaleźć potwierdzenie w badaniu którego założenia
byłyby oparte na nowej koncepcji.
Delta. Ruchy oka a kontrola motoryczna- potwierdzenie nowej syntezy.
Ponieważ wg Posnera do funkcji systemu uwagi należy kontrola nad aktywnością
motoryczną w kolejnym eksperymencie analizowano ruchy oka w sytuacji wymagającej
aktywności manualnej i w warunkach swobodnej rejestracji. Tym razem oczekiwano
skrócenia czasów reakcji oka wtedy, gdy system uwagi obciążony był koniecznością
nadzoru nad ruchami ręki. Wyniki badania w pełni potwierdziły postawione hipotezy.
Echo. Obciążenie wzrokowej pamięci roboczej wydłuża czas reakcji.
Wyjaśnienie- istnieją wspólne zasoby uwagi dla kierowania ruchami oka i
przetwarzania materiału w pamięci wzrokowo-przestrzennej.
Foxtrot. Wymuszenie intencjonalnego kierowania uwagi pogarsza pamiętanie
materiału.
Potwierdzenie istnienia wspólnych zasobów.
5.3. Etapy badania naukowego.
Dalsza część wywodów poświęcona będzie praktycznemu schematowi postępowania
badawczego. Kolejne wykłady dotyczyć więc będą kwestii jakie na poszczególnych etapach
badania są szczególnie istotne. Ważne jednak, aby patrzeć na badanie jako na całość.
Wszystkie etapy, o ile to możliwe powinny być planowane z góry, co pozwala uniknąć
przykrych niespodzianek, związanych np. z brakiem adekwatnych do problemu metod
statystycznych, czy niemożnością zbudowania skali pomiarowej. Programiści komputerów
Adam Tarnowski Metodologia badań psychologicznych 23
mawiają że jedna godzina zużyta na analizę problemu pozwala zaoszczędzić kilka godzin
pracy. Podobnie jest z badaniami empirycznymi. Prawidłowo zaplanowane badanie nie jest
trudne do przeprowadzenia a badacz nie jest (w większości wypadków) narażony na
niespodzianki. Ponadto dobrze zaplanowane badanie jest zawsze poprawne. Nawet uzyskanie
nieoczekiwanego z punktu widzenia teorii rezultatu, o ile nie popełniono błędu przy
planowaniu nie zmniejsza jego wartości, a czasami nawet jest dla nauki większym impulsem
niż potwierdzenie wszystkich hipotez.
Etapy te to kolejno:
1. Sformułowanie problemu
2. Postawienie hipotez teoretycznych
3. Operacjonalizacja
4. Weryfikacja hipotez
5. Generalizacja wyników.
Różni autorzy podają różne liczby etapów, kierunek rozumowania jest jednak zawsze
ten sam.
Pierwszym etapem jest sformułowanie problemu. Badacz dokonuje wstępnego
zakreślenia interesującej go problematyki i wskazuje szerszą teorię której rozwinięciem będą
jego badania. Na tym etapie należy zgromadzić dostępną wiedzę o interesującym nas
zagadnieniu, wykazać w tej wiedzy istniejące luki lub twierdzenia wymagające poprawnej
weryfikacji.
Drugi etap polega na sformułowaniu hipotez teoretycznych. Rozważania z pierwszego
etapu należy obecnie ukonkretnić, formułując hipotezy- twierdzenia które po
przeprowadzeniu proponowanych badań skłonni będziemy uznać za prawdziwe lub fałszywe.
Warto zaznaczyć, że wciąż jeszcze posługujemy się językiem pojęć teoretycznych.
Poszukiwanie wskaźników to problem kolejnego etapu.
Trzeci etap to operacjonalizacja hipotez. Poszukiwać będziemy obecnie wskaźników,
procedur pomiarowych i narzędzi pozwalających nam na przypisanie zmiennym wartości
liczbowych. Etap ten powinien zakończyć się dokładnym opisem planowanego badania-
badacz musi opisać co i w jaki sposób będzie mierzył, jakie zastosuje procedury manipulacji
zmiennymi niezależnymi (w badaniach eksperymentalnych) oraz jakie zastosuje metody
kontroli zmiennych ubocznych i minimalizacji niepożądanego wpływu niekontrolowanych
zmiennych zakłócających.
Etap czwarty to weryfikacja hipotez. Badacz, po zebraniu dostępnej wiedzy,
sformułowaniu własnych postulatów na temat rzeczywistości i opracowaniu metod ich
weryfikacji musi przystąpić wreszcie do badań. Czwarty etap podzielić można jeszcze na trzy
kroki. Pierwszy z nich to zbieranie danych- przeprowadzenie ankiet, badanie eksperymentalne
itp.
Po zebraniu danych kolejnym logicznym krokiem jest ich uporządkowanie. Należy
dokonać oceny wyników i zestawić wskaźniki statystyczne.
Ostatnim krokiem jest przeprowadzenie wnioskowania statystycznego. Zasadniczym
celem tego kroku jest uogólnienie zaobserwowanych prawidłowości z próby na populację.
Uzyskane do tej pory wyniki stanowią dopiero charakterystykę próby. Aby miały wartość
poznawczą należy uogólnić je na populację.
Adam Tarnowski Metodologia badań psychologicznych 24
W ostatnim etapie, generalizacji, należy zastanowić się, jak uzyskany wynik ma się do
teorii, która stanowiła punkt wyjścia- czy ją potwierdza, czy jej przeczy, czy pozwala ją
uogólnić czy też postawić ograniczenia. Należy rozważyć jakie mogą być w tym wypadku
ograniczenia wypływające z procedury badawczej. Ze świata faktów należy wrócić z
powrotem do świata teorii i włączyć w nią uzyskane rezultaty.
Adam Tarnowski Metodologia badań psychologicznych 25
Wykład 6. Zmienne w badaniach psychologicznych
Klasyka: Status zmiennych teoretycznych w psychologii
http://psychclassics.yorku.ca/MacMeehl/hypcon-intvar.htm
Etapem pierwszym badania naukowego jest określenie problemu badawczego. Badacz
podejmuje decyzję jakie zjawisko chce wyjaśniać, i jakie postuluje mechanizmy
wyjaśniania tego zjawiska. Dobrze postawiony problem to taki, który
- dotyczy fragmentu rzeczywistości o którym badacz zgromadził już
pewną wiedzę,
- Prowadzi do identyfikacji zbioru potencjalnych rozwiązań (wynikają
z niego hipotezy badawcze),
- Zawiera pojęcia zdefiniowane i możliwe do operacjonalizacji.
Źródłem inspiracji do stawiania problemów jest zwykle literatura przedmiotu- badacz
analizuje dotychczas przyjmowane modele i wyjaśnienia, i zwykle nasuwają mu się pomysły
poszerzenia zakresu ich stosowalności (Czy teoria XY sprawdzona w warunkach A
obowiązuje również w warunkach B? Czy możliwe jest alternatywne wyjaśnienie zjawisk?
Czy dwie teorie dadzą się połączyć w jedną ogólniejszą? Itp.). Niekiedy źródłem inspiracji
jest obserwacja życia społecznego (np. dlaczego ludzie dotknięci klęską żywiołową nie
ubezpieczają się? Co wpływa na agresję kierowców? ), niekiedy obserwacja paradoksów w
życiu codziennym. Ważnym motorem podejmowania badań mogą być także postępy nauk
pokrewnych (np. neurofizjologii) lub pojawienie się nowych dotychczas niedostępnych metod
badawczych (np. sztuczne sieci neuronowe, obrazowanie aktywności mózgu).
6.1. Klasyfikacja zmiennych
Podstawowym budulcem z którego formuje się problem badawczy są zmienne.
Zmienna formalnie rzecz ujmując jest to cecha przedmiotu która może przybierać dwie lub
więcej wartości.
Załóżmy dla uproszczenia, że zjawisko wyjaśniane sprowadza się do jednej zmiennej.
W hipotetycznym przykładzie niech będzie to powodzenie w nauce szkolnej.
Zmienna wyjaśniana nosi nazwę zmiennej zależnej (Zapisywać ją będziemy
symbolem Y).
Powodzenie w nauce szkolnej może zależeć od wielu różnych zmiennych- inteligencji,
cech osobowości ucznia, jego motywacji do nauki, warunków domowych, płci, odległości od
szkoły , z drugiej zaś strony warunków szkolnych, osobowości nauczyciela, programu itp.
Wyniki w nauce mogą oczywiście zależeć w pewnym stopniu od szczęścia, chorób dziecka,
warunków klimatycznych- badacz rzadko potrafi przedstawić pełną listę zmiennych
mogących potencjalnie wyjaśniać zmienną zależną.
Zmienne które mogą w jakimś stopniu wyjaśnić badane zjawisko nazywa się
zmiennymi niezależnymi. Będziemy je zapisywać symbolem X.
Jeśli badanie ma charakter eksploracji mówimy raczej o „zmiennych badanych”.
Pojęcie zmiennej zależnej i niezależnej rezerwujemy dla badań weryfikujących hipotezy,
szczególnie zaś eksperymentalnych
Adam Tarnowski Metodologia badań psychologicznych 26
Jak łatwo zauważyć badacz nie ma możliwości pomiaru wszystkich zmiennych.
Niektóre z nich z reguły pozostają niekontrolowane, i zakłócają przebieg badania.
Również spośród zmiennych kontrolowanych przez badacza nie wszystkie są dla
niego równie interesujące. W naszym przykładzie może np. zastanawiać się czy nowy
program nauczania wpłynie na wyniki w nauce.
Zmienne niezależne można więc podzielić na zmienne ważne i zakłócające.
Spośród zmiennych ważnych niektóre mogą mieć znaczenie pierwszoplanowe, inne
zaś chociaż nie są bezpośrednim przedmiotem badania winny być brane pod uwagę. Zatem
zmienne ważne podzielić można na główne i uboczne.
Nie jest prawdą, że zmienne główne muszą mieć większy wpływ na zmienną zależną
niż uboczne. Inteligencja może mieć większy wpływ na wyniki niż metoda nauczania, a
jednak, ponieważ nie stanowi zasadniczego tematu badania jest zmienną uboczną.
Schematycznie klasyfikacja zmiennych wygląda następująco:
Kontrola zmiennych polega na tym, iż jesteśmy w stanie określić ich wpływ na
zmienną zależną bądź wpływ ten wyeliminować. Ponieważ nie zawsze możemy to uczynić z
pełną dokładnością, stopień kontroli zmiennych można uznać za continuum.
Rozróżnienie między zmiennymi niezależnymi głównymi i ubocznymi polega na
sposobie ich włączenia w plan badania. Badamy bezpośredni wpływ zmiennej niezależnej
głównej na zmienną zależną, oraz wpływ zmiennych ubocznych na relację między zmienną
niezależną głównej i zmienną zależną.
Jeśli w naszym przykładzie będziemy się zastanawiać czy nowy program (zmienna
niezależna główna) wpływa na wyniki w nauce (zmienna zależna), zaś zmienną uboczną
będzie płeć- wówczas wbudowanie tej zmiennej w plan badania polegać będzie na kwestii czy
Zmienne niezależne istotne dla Y
Ważne Zakłócające
Główne (zawsze
kontrolowane)
Uboczne
(moderatory i
mediatory)
Kontrolowane Niekontrolowane Uniwersalne
Nie związane z
aktem badania
Związane z
aktem badania
Okazjonalne
Kontrolowane Kontrolowane Niekontrolowane Niekontrolowane
Adam Tarnowski Metodologia badań psychologicznych 27
program tak samo wpływa na wyniki w nauce chłopców i dziewcząt. Zmienna taka-
określająca warunki w jakich zachodzi wpływ zmiennej niezależnej na zależną nazywamy
moderatorem.
Możliwa jest jeszcze inna sytuacja- kiedy zmienna niezależna główna nie wpływa
bezpośrednio na zmienną zależną, lecz wywiera wpływ na inną zmienną pośredniczącą, a
dopiero ta z kolei powoduje zmiany zmiennej zależnej. W takiej sytuacji mówimy o zmiennej
ubocznej- mediatorze.
Wpływ zmiennych zakłócających (indywidualne zdolności, warunki szkolne itp.)
należy minimalizować przez odpowiedni dobór próby i ujednolicenie warunków badania.
Prawidłowo postawiony problem, realizowany w ramach modelu hipotetyczno
dedukcyjnego powinien pozwolić na określenie powyższych zmiennych. Czasem jednak,
kiedy teoria jest jeszcze mało dojrzała, prowadzone badania muszą dotyczyć inwentaryzacji
faktów, opisu prostych zależności bez wnikania w mechanizmy i modele wyjaśniające (te
dopiero mają powstać. Badanie takie dotyczy pierwszej fazy formułowania modelu, ma
charakter indukcyjny. Takie badanie nazywamy badaniem eksploracyjnym. Trudno wskazać
w takim badaniu zmienne zależne i niezależne, wszelkie klasyfikacje mają charakter sztuczny
i stanowią jedynie wstęp do sformułowania modelu.
6.2. Typy problemów badawczych i rodzaje zależności.
Problemy badawcze mogą dotyczyć zasadniczo pytań o poziom zmiennej zależnej w
populacji (np. jaka jest przeciętna liczba zapamiętanych po jednokrotnym odczytaniu cyfr w
populacji polskiej) lub też pytań o zależności między zmiennymi.
Zależności między zmiennymi możemy badać jako związki przyczynowo-skutkowe
lub korelacyjne.
W pierwszym przypadku staramy się udowodnić że zjawisko A jest przyczyną B. Nie
wystarczy zwykłe stwierdzenie ich współwystępowania- należy przeprowadzić badanie
eksperymentalne, w którym badacz manipulując zjawiskiem A doprowadzi do zmian zjawiska
B. Niekiedy także znajomość natury badanych zjawisk pozwala pośrednio wnosić które jest
przyczyną a które skutkiem (z pewnością raczej inteligencja warunkuje wyniki w nauce a nie
odwrotnie).
Badając zależności korelacyjne ograniczamy się do stwierdzenia ich
współwystępowania, nie wysuwamy twierdzeń które jest przyczyną a które skutkiem. Nie
przesądzamy czy A powoduje B, czy B powoduje A, czy też istnieje trzecia przyczyna C
warunkująca oba zjawiska A i B. W tym trzecim przypadku mówimy że między zjawiskami
A B zachodzi zależność pozorna (Lazarsfeld).
Zależności między zmiennymi niezależnymi a zmienną zależną mogą mieć charakter
zależności prostych lub interakcyjnych. W przypadku zależności prostej wpływ dwóch
zmiennych niezależnych na zależną jest sumą ich wpływów z osobna (jest addytywny)
Przykładem takiej zależności w naszym fikcyjnym przykładzie mogłyby być oceny
uzyskane przez chłopców i dziewczęta uczone wg dwóch programów nauczania:
Program A Program B Średnia
Adam Tarnowski Metodologia badań psychologicznych 28
Chłopcy 4 2 3
Dziewczęta 6 4 5
Średnia 5 3 4
W obu przypadkach program A jest lepszy, a dziewczęta uzyskują wyższe oceny.
Zatem najwyższe oceny uzyskują dziewczęta w programie A, najniższe chłopcy w programie
B.
W przypadku zależności interakcyjnej wyniki badania mogłyby wyglądać następująco:
Program A Program B Średnia
Chłopcy 5 1 3
Dziewczęta 5 5 5
Średnia 5 3 4
Pozornie (wg średnich brzegowych) nadal można przyjąć że program A jest lepszy, a
dziewczęta uzyskują wyższe oceny. Jednak dokładna analiza danych wskazuje że programy
są równoważne w przypadku nauczania dziewcząt, zaś jedynie w grupie chłopców istnieje
znaczna różnica pomiędzy wynikami programów A i B. Wyniki wewnątrz tabeli nie są
przewidywalne (jak było w pierwszym przypadku-zależności prostej) na podstawie
znajomości średnich brzegowych.
Strukturę zmiennych niezależnych wpływających na zmienną zależną nazywamy
obrazem przestrzeni zmiennych niezależnych.
Jeżeli zakładamy prosty (nieinterakcyjny) obraz przestrzeni- możemy badać
praktycznie nieograniczoną liczbę zmiennych niezależnych. W przypadku struktury
interakcyjnej interpretacja wpływu więcej niż 3 zmiennych niezależnych staje się bardzo
skomplikowana. Lepiej w takim przypadku przedstawić problem badawczy jako kilka
problemów cząstkowych, po opracowaniu których można starać się dokonać syntezy.
6.3. Zmienne uboczne: moderatory i mediatory
Obecnie możemy podać już dokładniejszą charakterystykę zmiennych ubocznych
mediatorów i moderatorów.
A zatem zmienna moderująca to taka zmienna, od której zależy charakter zależności
między zmienną niezależną główną a zmienną zależną. A zatem jeśli rozważamy wpływ
zmiennej X na Y to zmienna M jest moderatorem wówczas, gdy zachodzi interakcyjny wpływ
X oraz M na Y. Uwaga- nie jest konieczne aby zachodził związek prosty między M a Y czy
też X a M (to ostatnie jest wręcz nieuprawnione). Jednak M zmienia, modyfikuje wpływ jaki
na Y posiada X.
A więc jeśli „płeć” jest moderatorem, przyjrzyjmy się kolejnemu możliwemu
układowi danych:
Adam Tarnowski Metodologia badań psychologicznych 29
Program A Program B Średnia
Chłopcy 3 3 3
Dziewczęta 5 1 3
Średnia 4 2 3
Zauważmy, że
- Brak bezpośredniego związku między płcią a ocenami;
- Brak bezpośredniego związku między płcią a metodą nauczania (w
tym wypadku musiałoby to oznaczać, że różne ilości chłopców i
dziewcząt były uczone metodą A i B, co podważyłoby wiarygodność
analiz)
Oczywiście także wtedy kiedy zmienna M ma związek z Y (jak w drugiej tabeli na s.
22) również jest moderatorem.
Mediatorem natomiast może być motywacja. Wyobraźmy sobie następujący układ
zależności:
Motywacja jest zmienną pośredniczącą (mediatorem) gdy:
- Istnieje związek XY
- Istnieje związek XM oraz MY
- Po wyeliminowaniu wpływu zmiennej M zależność XY spada (w
idealnych warunkach do zera)
\
(X) Metoda
(M) Motywacja
(Y) Wyniki
Adam Tarnowski Metodologia badań psychologicznych 30
Wykład 7. Hipotezy i operacjonalizacja zmiennych.
7.1. Hipotezy
Hipoteza to zdanie w znaczeniu logicznym (zatem takie, które może być prawdziwe
lub fałszywe), będące odpowiedzią na problem badawczy, którego rozstrzygnięcia należy
poszukiwać w oparciu o badania empiryczne
Należy rozróżnić hipotezy od założeń. Założeniami w badaniu są twierdzenia które
uznajemy za prawdziwe na podstawie wcześniejszych badań i racjonalnej analizy. A więc są
to stwierdzenia których nie badamy. Naturalnie fiasko eksperymentu powoduje konieczność
dyskusji nad prawdziwością założeń- ale to już inna historia. W aktualnym badaniu
zakładamy założenia (jako tymczasowe pewniki) a sprawdzamy prawdziwość hipotez.
7.1.1. Warunki poprawności hipotez
.Aby hipoteza mogła być uznana za poprawną powinna spełniać szereg warunków. I
tak: (wg. Brzezińskiego)
1. Hipoteza musi być sprawdzalna
2. Hipoteza musi pozwalać na przewidywanie innych faktów niż pierwotnie
zaobserwowane. Np. widząc osobę A. wchodzącą do bufetu możemy postawić
hipotezę „A ma potrzebę wejścia do bufetu”, z której nic więcej nie wynika, nie może
zatem być poddana testowi. Hipoteza „A jest głodny” może być zweryfikowana-
przewidujemy że A. zakupi coś do jedzenia.
3. Hipoteza musi być adekwatną odpowiedzią na problem. W powyższym przykładzie
hipoteza „A umie chodzić” mija się całkowicie z sensem problemu.
4. Hipoteza musi być najprostszą odpowiedzią. „A ma kompulsywną potrzebę jedzenia
będącą reakcją na stres, w wyniku utrwalonej fiksacji oralnej”- może to być prawda,
jednak zanim poddamy taką hipotezę dalszym badaniom zdrowy rozsądek nakazuje
sprawdzić czy A nie jest przypadkiem głodny.
5. Hipoteza musi być tak sformułowana, aby łatwo można ją było przyjąć lub odrzucić.
Musi istnieć prosty test empiryczny (np. jak w p. 2).Hipoteza sformułowana w p. 4.
może prowadzić do różnych zachowań i test empiryczny jest trudniejszy.
6. Hipoteza nie powinna stanowić zbyt szerokiej generalizacji (np. „ludzie bywają
głodni”)
Dodatkowo proponuję przyjąć dwa warunki:
7. Hipoteza powinna wskazywać kierunek zależności, np. „Zastosowanie psychoterapii
spowoduje spadek poziomu lęku”. Taka hipoteza świadczy że badacz rozumie
mechanizm zjawiska (por. „Zastosowanie psychoterapii spowoduje zmianę poziomu
lęku”.) Dodatkowo hipoteza taka posiada lepsze własności w trakcie weryfikacji
statystycznej.
8. Hipoteza powinna mówić o istnieniu zależności, a nie o jej braku. Błędna jest więc
hipoteza „poziom lęku pod wpływem psychoterapii nie zmieni się”. Taką hipotezę
można ewentualnie odrzucić, ale nie można jej zweryfikować. Uzasadnienie wymaga
znajomości podstaw wnioskowania statystycznego, i będzie przedstawione w dalszej
części.
Adam Tarnowski Metodologia badań psychologicznych 31
7.1.2. Czy zawsze hipotezy są niezbędne w weryfikacji teorii?
Niezbędna jest jeszcze jedna refleksja: czy rzeczywiście, tak jak chciał Popper testowanie
hipotez jest niezbędne do przyjęcia teorii naukowej? Wydaje się że tak nie jest. Można
wymienić przynajmniej cztery sytuacje, w których teoria jest przyjmowana bez tego
etapu.
1. Indukcja. Niekiedy teoria jest budowana na podstawie obserwacji rzeczywistości bez
założeń wstępnych, wyszukiwania prawidłowości wśród empirycznych danych. Tak
powstała teoria Newtona, a w psychologii np. teoria Piageta oraz wiele innych.
2. Perspektywa. Niekiedy wybieramy nie teorię która ma najlepsze oparcie w faktach,
ale tę która jest najbardziej obiecująca- oferuje możliwość szerokiego i prostego
wyjaśniania, może sprawdzić się na wielu polach. Behawioryzm pierwotnie nie
dysponował szerszym potwierdzeniem sumą empirycznym niż np. strukturalizm (E.B.
Titchener: życie psychiczne jest elementarnych zjawisk i procesów, metodą ich
badania jest introspekcja), jednak był kierunkiem bardziej obiecującym.
3. Ważność. Niekiedy teoria nawet mało prawdopodobna utrzymuje się, gdyż badacze
zdają sobie sprawę z jej oryginalności i potencjalnie wielkiego znaczenia. Teoria
Freuda może być i w tym przypadku dobrym przykładem
4. Teoria wyjaśniająca- Niekiedy pojawia się teoria wyjaśniająca w prosty i precyzyjny
sposób znane fakty i utrzymuje się chociaż nie prowadzi bezpośrednio do odkrycia
nowych. Przykładem takiej teorii może być model Findlaya wyjaśniający ruch oka,
model Normana- Shalice’a tłumaczący automatyzm i kontrolę działania oraz szereg
innych.
7.2. Wskaźniki.
7.2.1. Klasyfikacja wskaźników
Pojęcie teoretyczne z założenia nie może być obserwowane bezpośrednio. Aby opisać
związki ilościowe między zjawiskami musimy zatem poszukać dla nich wskaźników.
Zjawisko nieobserwowalne lub trudno obserwowalne, o którym chcemy wnioskować
nazywać będziemy indicatum. Wskaźnikiem nazywać będziemy takie zjawisko obserwowalne
którego wystąpienie pozwala z dostatecznie dużym prawdopodobieństwem stwierdzić, że
zaszło również indicatum. Przykładem może być np. długość słupka rtęci w termometrze jako
wskaźnik temperatury, ilość osób głosujących na kandydata jako wskaźnik poparcia
społecznego czy też wynik w teście psychologicznym jako wskaźnik inteligencji.
Powyższe przykłady różnią się między sobą. Słupek rtęci w termometrze związany
jest z temperaturą na mocy prawa fizycznego. Jeżeli więc wskaźnik łączy z indicatum pewna
stwierdzona prawidłowość, nazwiemy go wskaźnikiem empirycznym.
Przykładowy wskaźnik poparcia społecznego może mieć inny charakter. Poparcie dla
kandydata w wyborach nie jest bowiem niczym innym, jak właśnie ilością oddanych głosów, i
może być w ten sposób zdefiniowane. Wskaźnik z indicatum łączy zatem związek
definicyjny. Sytuacja taka jest dosyć komfortowa- wskaźnik jest zawsze trafny. Niemniej,
wbrew stanowisku operacjonalistów, niewiele terminów naukowych można w ten sposób
sensownie zdefiniować.
Najtrudniejsza wydaje się ostatnia sytuacja (wynik testu jako wskaźnik inteligencji).
Indicatum ma tu charakter z założenia nieobserwowalny. Jest konstruktem teoretycznym,
pojęciem którego istnienie może być przez innych badaczy negowane (Nie wszyscy
psychologowie zgadzają się że istnieje jedna cecha zwana inteligencją). Aby więc budować
Adam Tarnowski Metodologia badań psychologicznych 32
wskaźnik, należy najpierw uzasadnić istnienie indicatum. Jak była już mowa w rozdziale
poświęconym prawdziwości wiedzy naukowej należy wykazać, że jest to pojęcie użyteczne,
pozwalające lepiej i prościej opisać zjawiska, pamiętając o spójności przyjmowanej teorii.
Wskaźniki tego typu nazywamy inferencyjnymi. Mają one zwykle charakter złożony,
dopiero konfiguracja kilku wskaźników inferencyjnych pozwala na wnioskowanie o
wystąpieniu indicatum. Wnioskowanie o prawdziwości zdania wprowadzającego wskaźnik
przeprowadza się podobnie jak w przypadku testowania teorii- oceniając czy zależności
opisywane z użyciem wskaźnika są zgodne z oczekiwaniami płynącymi z teorii.
Wskaźniki empiryczne i inferencyjne, w odróżnieniu od definicyjnych nazywamy
rzeczowymi.
Zdanie przypisujące wskaźnik do indicatum nazywamy zdaniem wprowadzającym
wskaźnik. W przypadku wskaźników rzeczowych zdania wprowadzające są zdaniami w
sensie logicznym. Są to zdania syntetyczne mogą być prawdziwe lub fałszywe (np. „obwód
głowy jest wskaźnikiem inteligencji”)
Trzy opisane wyżej typy nie wyczerpują całości zagadnienia klasyfikacji wskaźników.
Możliwe są również typy mieszane. Nie będą one w tym miejscu szczegółowo omawiane,
zainteresowani mogą sięgnąć np. po podręcznik J. Brzezińskiego (1984).
7.2.2. Moc rozdzielcza wskaźników
Nie każdy wskaźnik pozwala na wnioskowanie o indicatum z całkowitą pewnością.
Niekiedy zakres wskaźnika i zakres indicatum znacznie się między sobą różnią. Aby ocenić
relację zakresów indicatum i wskaźnika wprowadzono pojęcie mocy rozdzielczej
wskaźników. Wysoka moc rozdzielcza wskaźnika oznacza, że jego zakres w dużym stopniu
pokrywa się z zakresem indicatum. Większość obiektów charakteryzowanych przez wskaźnik
posiada również indicatum, i odwrotnie- większość obiektów posiadających indicatum
posiada również cechę będącą wskaźnikiem.
Wyróżnić możemy moc zawierania i moc odrzucania wskaźników. Moc zawierania
jest wysoka wtedy, kiedy wszystkie obiekty posiadające indicatum charakteryzowane są także
przez wskaźnik. Wskaźnik o dużej mocy zawierania może zatem być zbyt ogólny- badane
obiekty mogą posiadać wskaźnik nie posiadając indicatum. Duża moc zawierania interesować
nas będzie jeżeli istotne jest wychwycenie możliwie wielu obiektów charakteryzujących się
pewną cechą, zaś ryzyko "zakwalifikowania" obiektów cechy tej nie posiadających nie wiąże
się z dużym ryzykiem. Przyjmując do szkoły artystycznej osoby o wysokich zdolnościach
(przy założeniu że dysponujemy dostateczną liczbą miejsc) będziemy poszukiwać wskaźnika
talentu o dużej mocy zawierania, aby nie odrzucić osób uzdolnionych. Przyjęcie do szkoły
osób mało zdolnych nie wiąże się z dużym ryzykiem. Szukając wskaźnika groźnej choroby
postępować będziemy w ten sam sposób.
Moc zawierania=1
Moc odrzucania<1
Moc rozdzielcza<1
WW I
Adam Tarnowski Metodologia badań psychologicznych 33
Odwrotnie wygląda sytuacja, kiedy szukamy kandydatów np. do szkoły lotniczej. Tu
koszty szkolenia są wysokie, przyjęcie osób o niskich zdolnościach zaś wiąże się z poważnym
zagrożeniem dla nich samych. Dlatego poszukiwać będziemy wskaźnika zdolności o dużej
mocy odrzucania. Być może część osób potencjalnie zdolnych nie zostanie do szkoły
przyjęta, jednak ważniejsza jest dla nas pewność, że ci którzy się zakwalifikowali prezentują
odpowiednio wysoki poziom zdolności.
Moc zawierania<1
Moc odrzucania=1
Moc rozdzielcza<1
W rzeczywistości rzadko mamy do czynienia z sytuacjami tak skrajnymi. Wskaźniki
stosowane w badaniach empirycznych charakteryzuje zwykle pewien kompromis między
mocą zawierania i odrzucania. Warto pamiętać, że dysponując wskaźnikiem o charakterze
ciągłym (wyniki testu, oceny itp.) możemy regulować jego moc odrzucania i zawierania przez
łagodzenie bądź zaostrzanie kryteriów kwalifikacji.
Nowszym ujęciem mocy rozdzielczej wskaźników są pojęcia czułości i specyficzności
(Swoistości). Wskaźnik jest czuły, kiedy pozwala zidentyfikować jednostki posiadające
indicatum (wysoka moc zawierania), specyficzny kiedy pozwala na odrzucenie wszystkich
nie posiadających indicatum (moc odrzucania) Optymalny poziom kryterium, umożliwiający
uzyskanie żądanych parametrów wskaźnika ułatwia tzw. Krzywa ROC (Receiver Operating
Characteristics curve)
I W
Adam Tarnowski Metodologia badań psychologicznych 34
Krzywa ROC
Segmenty na przekątnej są utworzone przez wiązania.
1 - Swoistość
1,0,8,5,30,0
Czu
łość
1,0
,8
,5
,3
0,0
Wykres odzwierciedla relację między czułością a swoistością. Kryterium ilościowe
używane jest do przewidywania dwuwartościowego indicatum (np. wynik testu jako prognoza
wystąpienia określonego uszkodzenia mózgu. Zajmiemy się ustaleniem wartości progowej.
Dla małych wartości wyników testowych czułość jest niewielka- tylko mały odsetek osób
posiada indicatum, wielu chorych jest pomijanych. Im wyższy wynik, tym większa czułość-
coraz więcej osób chorych jest rozpoznawanych przez test, coraz mniej chorych
klasyfikowanych jest jako zdrowi (rośnie ilość prawidłowych rozpoznań). Jednak również
coraz więcej osób zdrowych klasyfikowanych jest jako chorzy („fałszywe alarmy”). Dla
wysokich wyników czułość jest bliska 1- prawie wszyscy chorzy zostali sklasyfikowani
prawidłowo. Jednak również wielu innych ludzi zostało zaklasyfikowanych jako chorzy-
spadła specyficzność testu (na wykresie oś pozioma jest odwrócona- to „1- swoistość”.
Jeśli zjawisko indictum jest rzadkie, należy być bardzo ostrożnym w stosowaniu
wskaźnika. Załóżmy, że kryterium pozwala określić osoby z zaburzeniami uwagi
wykluczającymi prowadzenie samochodu z czułością 1. oraz specyficznością 0.98. Osób z
tego typu zaburzeniem jest w populacji 0.005. A zatem po przebadaniu 1000 osób
wykryliśmy 25 osób spełniających kryterium, z czego 5 naprawdę ma zaburzenia zaś 20 ich
nie ma. A więc nawet przy pozornie znakomitych wskaźnikach formalnych podejmujemy
wiele nietrafnych decyzji.
Sytuacja jest nieco bardziej złożona kiedy mamy kilka wskaźników, o różnych wagach
(różnym prawdopodobieństwie). Do opisu tego typu złożonych wskaźników empirycznych
możemy zastosować model koneksjonistyczny:
W1 I1
Adam Tarnowski Metodologia badań psychologicznych 35
W2 I2
Strzałkom przypisane są wagi (np. na podstawie krzywej ROC) A zatem wystąpienie
wskaźnika W1 oznacza wystąpienie I1 z prawdopodobieństwem np. 0.80, zaś wystąpienie
W2 pozwala z prawdopodobieństwem 0.60 oczekiwać I2. Obserwator na podstawie
znajomości W1 i W2 musi ustalić czy zachodzi I1 czy I2.
Adam Tarnowski Metodologia badań psychologicznych 36
Wykład 8. Pomiar w psychologii- elementy psychometrii.
8.1. Struktura operacjonalizacji zmiennych psychologicznych.
Reguły łączące teorię z empirią, mają charakter kilkupoziomowy.
Punktem wyjścia jest podobieństwo i powtarzalność pewnych zachowań. Aby opisać
to podobieństwo i powtarzalność nadajemy nazwę pewnej cesze. Budujemy test- zestaw
bodźców. Reakcje na te bodźce mają nam pozwolić na przewidywanie tych zachowań, które
pierwotnie zaobserwowaliśmy w innych nowych sytuacjach. Test ten prezentujemy osobie
badanej- i istnieje pewien jej prawdziwy wynik w tym teście, tzn. średni wynik jaki
uzyskałaby gdyby test powtórzono wielokrotnie. Niestety, w aktualnych warunkach wynik
mógł ulec zniekształceniu- i stąd błąd pomiaru. Ostatecznie, otrzymany wynik jest sumą
błędu pomiaru i wyniku prawdziwego.
8.2. Definicja pomiaru
Zagadnienie pomiaru w psychologii należy do zagadnień operacjonalizacji zmiennych.
Załóżmy, iż dany jest pewien zbiór elementów empirycznych E. Elementy te można
scharakteryzować pewną cechą. Między obiektami empirycznymi ze względu na ową cechę
zachodzić mogą różne relacje. E jest wiec systemem empirycznym.
Dany jest również pewien matematyczny system, złożony z elementów
matematycznych (np. liczb lub kategorii jakościowych) oraz określonych relacji między nimi.
Przez pomiar rozumieć będziemy takie przypisanie elementów matematycznych
elementom empirycznym, że relacje między elementami empirycznymi były odzwierciedlone
w systemie matematycznym.
Funkcja pomiarowa to jednoznaczne przyporządkowanie elementów matematycznych
do elementów empirycznych.
Skala pomiarowa to system matematyczny, za pomocą funkcji pomiarowej
przyporządkowany systemowi empirycznemu.
Wynik prawdziwy skali IQ
Inteligencja- konstrukt
teoretyczny (Świat III)
Wynik otrzymany skali IQ
Wymiar empiryczny- Inteligencja jako
sposób organizacji zachowania (Świat I)
Adam Tarnowski Metodologia badań psychologicznych 37
Pomiar wielkości empirycznych wymaga rozważenia zagadnień istnienia i
jednoznaczności funkcji pomiarowej. Istnienie funkcji jest to kwestia możliwości przypisania
liczb badanej zmiennej- np. czy możliwy jest pomiar inteligencji za pomocą konkretnego
testu? Lub pomiar szczęścia (Choć niewątpliwie ludzie różnią się między sobą w tym
względzie)? W teorii testów psychologicznych problem istnienia funkcji pomiarowej jest
pokrewny do problemu trafności testu.
Problem jednoznaczności dotyczy zasadniczej w pomiarze sprawy, mianowicie czy
elementowi empirycznemu funkcja pomiarowa rzeczywiście przypisuje tylko jeden element
matematyczny? Mówiąc prościej, czy wynik pomiaru jest zawsze taki sam?
Inna kwestia to zgodność aksjomatów systemu matematycznego z prawami
rządzącymi systemem empirycznym. Np. czy relacja odległości, określona w świecie liczb,
posiada w ogóle sensowne znaczenie w świecie zjawisk empirycznych które chcielibyśmy
tymi liczbami opisać? Kwestia ta w pewnym stopniu znajduje rozwiązanie poprzez
klasyfikację skal pomiarowych, o czym niżej.
8.3. Typy skal pomiarowych
Typ skali informuje nas o tym, jakie relacje między wynikami pomiaru uznawać
będziemy za posiadające interpretację w świecie empirycznym. Dane czysto jakościowe
wyrażamy na skali nominalnej. Obiekty mogą być zaklasyfikowane do różnych kategorii, np.
wśród ludzi możemy wyróżnić osoby różnej płci lub zawodu. Relacje między kategoriami to
zgodność (A=B) lub różność (A B). Chcąc wskazać najbardziej typową w danej grupie
wartość cechy wskażemy na kategorię najliczniejszą (wartość modalna).
Skala porządkowa umożliwia porządkowanie danych. Zatem wyniki można
uszeregować np. rosnąco. Możemy wskazać wynik najwyższy itp. Uporządkowanie może
mieć charakter zupełny lub nie, jeżeli dopuszczamy możliwość przyjmowania wartości
identycznych. Chcąc wskazać najbardziej typową w danej grupie wartość cechy należy
obiekty uszeregować, następnie wskazać wartość cechy obiektu środkowego w
uporządkowaniu (wartość medialna, mediana).
Skala przedziałowa umożliwia określanie odległości. Wyniki zatem mogą być
poddawane operacjom arytmetycznym. Najbardziej typową wartość cechy w grupie
wyliczymy po prostu jako średnią arytmetyczną.
Wyobraźmy sobie sytuację: na ekranie pojawia się wyraz, a zadaniem badanego jest
określić, czy wyraz ten należy do pewnej kategorii, i nacisnąć przycisk jeśli tak. Rejestrowany
jest czas reakcji.
Należy raz jeszcze mocno podkreślić, że typ skali nie zależy od właściwości samych
liczb-wyników, lecz od tego jak odzwierciedlają one właściwości indicatum. Ten sam czas
reakcji może być bądź wskaźnikiem szybkości przetwarzania informacji (wówczas uznamy
go za pomiar na skali przedziałowej), stopnia znajomości pojęć (należy oczekiwać że skala
pomiaru będzie mieć charakter porządkowy) lub być wskaźnikiem zaburzeń – np. dysleksji
lub uszkodzenia płatów skroniowych- i wówczas dostarczy informacji jedynie nominalnej.
8.4. Elementy teorii testów psychologicznych
Omówienie zasadniczych właściwości testów psychologicznych zawiera podręcznik J.
Brzezińskiego. Zasadnicze wymagania co do testów zawarte są w Standardach dla testów
stosowanych w psychologii i pedagogice (1984) Warszawa: LTD PTP.
Adam Tarnowski Metodologia badań psychologicznych 38
Na wstępie zaznaczyć należy że poniższe informacje mają charakter bardzo ogólny.
Dokładne omówienie poruszanych tu zagadnień będzie przedmiotem osobnego kursu.
Od testów wymaga się aby były rzetelne, trafne, wystandaryzowane,
obiektywne i znormalizowane.
Wymóg standaryzacji oznacza, że test prezentowany jest w ustalony sposób.
Instrukcja i podręcznik testowy powinny w sposób jednoznaczny określać warunki i
procedury którym będzie poddany badany.
Obiektywizm dotyczy zasad oceny wyników testu. Powinny być one tak
określone, aby każda osoba interpretująca materiał testowy doszła do identycznych
wniosków.
Normalizacja z kolei to zaopatrzenie testu w procedury umożliwiające ocenę
wyniku osoby badanej na tle populacji do której chcemy wynik odnieść.
Ważne jest określenie populacji odniesienia, tj. zbiorowości na tle której
oceniamy wynik. Zwykle tworzy się tzw. normy ogólne, odnoszące wynik do
możliwie szerokiej grupy osób badanych, oraz normy lokalne- dla wąskich grup.
Tworzenie danych normalizacyjnych jest zadaniem trudnym i odpowiedzialnym, skład
grupy nie może być pozostawiony przypadkowi.
Trafność testu określa na ile mierzy on taką a nie inną cechę. Powiemy że mamy do
czynienia z trafnym testem inteligencji, jeśli uznamy że mierzy on rzeczywiście inteligencję,
a nie np. pamięć lub wyłącznie zdolności matematyczne. Pytanie o trafność to pytanie do
jakich wniosków uprawnia nas wynik testu. Trafność zakłada istnienie związku między
wynikiem a latentną (teoretyczną) zmienną psychologiczną. Dlatego kwestia ta jest
szczególnym przypadkiem problemu istnienia funkcji pomiarowej.
Rzetelność testu jest to dokładność pomiaru. Zakładając, że test mierzy pewną cechę
(np. inteligencję) w sposób trafny, badając rzetelność pytamy na ile pomiar jest obarczony
błędem.
Ponieważ aby test był trafny musi najpierw w ogóle coś mierzyć, a nie popełniać
wyłącznie błędy stwierdzamy że rzetelność jest granicą trafności testu. Test popełniający
duże błędy nie mierzy po prostu niczego, a więc nie może być trafny.
Rzetelność testu nie może być oceniona bezpośrednio, gdyż nie znamy wyników
prawdziwych. Toteż oceniamy ją bądź przez dwukrotne badania testem (stabilność) bądź też
poprzez ocenę, czy poszczególne części testu dają wyniki zgodne (zgodność wewnętrzna).
Adam Tarnowski Metodologia badań psychologicznych 39
Wykład 9. Trafność testów psychologicznych
Klasyczny tekst Cornbach & Meehl (1955)
http://psychclassics.yorku.ca/Cronbach/construct.htm
Trafność testu to dokładność, z jaką test mierzy to do pomiaru czego został
skonstruowany. Pytanie o trafność to pytanie o to, jakie wnioski można w uprawniony sposób
z wyników testu wyciągnąć.
Najbardziej aktualna oficjalna definicja trafności zawarta jest w Standardach APA z r.
1999.
Trafność to stopień, z jakim doświadczenie i teoria są zgodne z interpretacją wyników
testu uzyskaną poprzez wskazany sposób jego zastosowania. Proces oceny trafności obejmuje
gromadzenie dowodów naukowych potwierdzających wskazany sposób interpretacji wyników
testowych. Istotne jest, że badany jest sposób interpretacji wyników, a nie sam test. Kiedy
wyniki mogą być interpretowane i stosowane na kilka sposobów, musi być przeprowadzone
badanie trafności każdego z nich. Badanie trafności obejmuje następujące aspekty (ale nie
ogranicza się do nich):
- badanie zawartości treściowej testu;
- badanie procesu rozwiązywania testu;
- badanie wewnętrznej struktury testu;
- badanie związków wyników testu z innymi zmiennymi
- badanie konsekwencji testowania
9.1. Czym jest cecha psychiczna i kiedy można orzec że ona istnieje?
Podstawowym pytaniem przed rozpoczęciem analizy trafności jest kwestia istnienia
badanej cechy. Nie każda postulowana cecha stanowi rzeczywistość psychologiczną, musi
ona w istotny sposób ułatwiać opis, rozumienie i przewidywanie zachowania człowieka (są to
cele nauki). Np. możliwe jest określenie zmiennej „potrzeba wolności”. Można oczywiście
uszeregować ludzi od tych, którzy potrzebę taką posiadają w niewielkim stopniu do takich,
dla których jest to istotna wartość. Można zbudować test, który będzie nasilenie takiej cechy
mierzył dość precyzyjnie. Jednak bliższa analiza nasuwa wiele wątpliwości.
Załóżmy, że badacz oczekiwał związku między potrzebą wolności a poczuciem sensu
życia. Zjawisko nie jest jednak proste- potrzeba wolności może wiązać się z pustką i chęcią
ucieczki- albo też z dążeniem do samorealizacji. Tylko ludzie dążący do samorealizacji będą
mieli wyższy poziom poczucia sensu życia. Z drugiej strony mała potrzeba wolności może
wiązać się z poczuciem beznadziei, albo też wynikać z satysfakcjonującej aktualnie sytuacji
życiowej. Jedynie w pierwszym przypadku można oczekiwać braku sensu życia.
Problem polega na tym, że pozornie możliwa do zdefiniowania „potrzeba wolności”
jest zjawiskiem złożonym, niejednorodnym, wielowymiarowym. Nie istnieje zatem proste
continuum tej cechy. Nawet jeśli można z powodzeniem uszeregować ludzi od niskiego do
wysokiego nasilenia cechy- na obu krańcach continuum znajdą się ludzie różni na tyle, że
wyjaśnienie jakiegokolwiek zjawiska przez potrzebę wolności staje się problematyczne.
Grupowanie osób charakteryzujących się wysokim i niskim wynikiem, bardzo różnych
Adam Tarnowski Metodologia badań psychologicznych 40
psychologicznie nie sprzyja też systematyczności opisu. Przewidywanie ich zachowań może
także być nietrafne. Przypomnijmy, że model 1prawdziwy to model użyteczny- a dla nauki
użyteczny jest model właśnie realizujący trzy cele: opis, wyjaśnianie i przewidywanie
rzeczywistości.
Rzeczywistość psychologiczna jest niekiedy bardzo złożona. Skala służąca do
identyfikacji osobowości histerycznej składa się z pytań dotyczących skarg somatycznych i
potrzeby więzi społecznych. U osób dobrze przystosowanych te dwie grupy pytań dają wyniki
sprzeczne- normalnie osoba która czuje się chora unika towarzystwa. Jednak w przypadku
osobowości histerycznej (zwłaszcza znacznego nasilenia mechanizmu konwersji) właśnie
skargi somatyczne są wykorzystywane jako środek do wywierania wpływu na innych. Zatem
w grupie osób zaburzonych te dwie grupy pytań tworzą spójną całość. Zatem zmienna
mierzona przez tą skalę istnieje, lecz tylko u pewnej grupy osób.
Nie każda zmienna jaka da się pomyśleć istnieje w rzeczywistości. Badając trafność
narzędzi zakładamy, że cecha stanowi rzeczywisty konstrukt teoretyczny, posiadający dobre
osadzenie w badanej rzeczywistości.
Interesujące rozważania nad logicznym statusem cech osobowości znaleźć można w
tekście J Brzezińskiego zamieszczonym w pracy W. Sanockiego (1986) Kwestionariusze
osobowości w psychologii, Warszawa: PWN. Człowiek reaguje na bodźce, regulując w ten
sposób swoje stosunki z otoczeniem, zaspokajając potrzeby, niższe i wyższe, dążąc do
dalekosiężnych celów itd. Ponieważ rekcje na ten sam bodziec mogą być różne, utrwalone
tendencje do pewnych klas reakcji nazwać można osobowością.
W skrócie – osobowość jest systemem regulacji naszych relacji z otoczeniem. Cechy
osobowości mają zatem charakter meta-relacji. A więc interesujący nas problem istnienia
cech osobowości daje się sprowadzić do obserwowalnych, powtarzalnych tendencji w
zachowaniu.
Solidny choć nie do końca aktualny przegląd teoretycznych podejść do definiowania
cech osobowości:
http://www.seminare.pl/16/buksik1.htm
9.2. Rodzaje trafności
Wyróżnia się kilka rodzajów trafności.
Trafność kryterialna to zgodność z kryterium zewnętrznym. Mówimy o trafności
diagnostycznej, kiedy test powinien przewidywać kryterium aktualne (np. testy
psychoorganiczne, badające występowanie uszkodzeń mózgu) oraz o trafności prognostycznej
kiedy zadaniem testu jest przewidywanie zachowań lub osiągnięć w przyszłości (np.
ukończenia szkoły).
Trafność treściowa to stopień w jakim materiał testowy jest reprezentatywny dla
badanej cechy. Np. test wiadomości szkolnych powinien równomiernie dotyczyć wszystkich
zagadnień omawianych w ramach danego przedmiotu.
Trafność teoretyczna to stopień w jakim wyniki badań testem pokrywają się z
oczekiwaniami teoretycznymi.
1 Cecha może stanowić element takiego modelu
Adam Tarnowski Metodologia badań psychologicznych 41
Lekceważony często rodzaj trafności to trafność fasadowa. Test jest trafny fasadowo,
jeśli robi na badanym wrażenie zgodne z oczekiwaniami badacza. Istotność tego wrażenia jest
dwojaka- po pierwsze test powinien sprawiać wrażenie profesjonalnego narzędzia, co
zwiększa u badanego motywację do współpracy. Po drugie właściwa forma prezentacji testu
pozwala ukryć – jeśli to konieczne- rzeczywisty cel badania (częste w testach projekcyjnych).
W ostatnich latach pojawiło się także pojęcie trafności społecznej. Test jest trafny w
tym aspekcie jeśli odpowiada na zapotrzebowanie użytkownika. Jeśli więc test pozwala na
dobrą selekcję pracowników, jest akceptowany przez osoby stosujące go, testowane i
zlecające badanie – wówczas spełnia to kryterium. Pojęcie to jest zatem zależne od trafności
teoretycznej, kryterialnej i fasadowej testu.
9.3. Metody oceny trafności testu
W przypadku trafności treściowej ocena jest w zasadzie prosta. Na podstawie definicji
cechy stwierdzamy jakie elementy powinien zawierać test, dobieramy pulę pozycji testowych,
następnie (najczęściej) przy pomocy kilku tzw. sędziów kompetentnych oceniamy czy
pozycje są reprezentatywne dla cechy. Należy pamiętać, że sędziowie powinni być zgodni w
opiniach i oceniać test pozytywnie, i że oba te kryteria muszą być sprawdzone statystycznie.
Należy ponadto uważać by eliminując z pierwotnej puli pozycje słabe z formalnego,
statystycznego punktu widzenia nie odrzucić pozycji kluczowych z punktu widzenia definicji
cechy.
W przypadku trafności kryterialnej istnieje zwykle jasno określone, empirycznie sprawdzalne
kryterium. Badanie tego rodzaju trafności jest również zasadniczo proste, choć czasem np. w
wypadku trafności prognostycznej wymaga wieloletnich badań podłużnych. Skażenie (kontaminacja) kryterium- zachodzi jeśli kwalifikacja do grupy kryterialnej
odbywała się m.in. na podstawie wyników badanego testu.
Najtrudniejsze jest badanie trafności teoretycznej. Należy zauważyć że test
psychologiczny dla większości zmiennych ma status wskaźnika inferencyjnego, tj. o
wystąpieniu indicatum możemy wnosić wyłącznie na podstawie analizy wyników testu.
Istnieje szereg strategii badania testu. Generalnie każda z nich ma za zadanie dowieść że
wyniki testu zachowują się zgodnie z tym czego należałoby oczekiwać na podstawie teorii
stojącej u podłoża definicji cechy. Można zatem badać test metodą oceny różnic
międzygrupowych- wykazać że grupy które winny się różnić ze względu na badaną zmienną
X istotnie różnią się wynikami testu T. Jest to argument za tym, że test T w istocie bada
zmienną X. Metoda zmian nieprzypadkowych wykazuje, że jeśli oczekiwano zmiany w
zakresie zmiennej X, również zmienią się wyniki testu T. Metoda analizy korelacji z innymi
testami (tzw. macierz wielu cech- wielu metod) pozwala na ocenę trafności w dwu aspektach:
zbieżnym (test T wysoko koreluje z wynikami testów mierzących podobne zmienne) i
różnicowy (test ma niskie wskaźniki korelacji z metodami mierzącymi odrębne konstrukty).
Przykładem może być skala depresji Zunga (Terelak, Tarnowski, Kwasucki 1993), która
zadowalająco korelowała z innymi testami depresji, natomiast silniej jeszcze ze skalą
kłamstwa. Narzędzie takie nie było trafne- mierzyło raczej postawę obronną i wrażliwość na
aprobatę społeczną niż rzeczywistą depresję.
Metody oparte na tzw. analizie czynnikowej badają czy wewnętrzna struktura testu
(związki między poszczególnymi zadaniami) jest zgodna z teorią. W innej wersji metody
ocenia się czy wynik testu stanowi dopasowany element struktury wielu zmiennych
badających daną sferę psychiki.
Adam Tarnowski Metodologia badań psychologicznych 42
W badaniu trafności społecznej podstawowa jest inna metoda- ocena efektów
testowania. Proces ten polega na badaniu jakie konsekwencje wiązały się z zastosowaniem
konkretnego testu, a ściślej- pewnej jego interpretacji.
9.4. Model trafności Messicka:
Istnieją dwa zasadnicze aspekty badania trafności testu: przeznaczenie i uzasadnienie.
Pierwszy z nich (przeznaczenie) daje się scharakteryzować na wymiarze wyjaśnianie-
zastosowanie. Można zatem mówić o trafności testu jako narzędzia badawczego psychologa-
teoretyka, lub trafności testu używanego do badań praktycznych w diagnostyce
psychologicznej. Te dwa aspekty nie wykluczają się, przeciwnie muszą współgrać. Test
„praktyczny” pozbawiony podstaw teoretycznych nie jest trafny, gdyż nie można powiedzieć
jak daleko da się uogólniać wnioski wyciągane z jego wyników (trafność testu to poprawność
wniosków). Testy przeznaczone wyłącznie do badań naukowych również nie są użyteczne-
ich trafność nie może zostać skonfrontowana z sytuacją konkretnych ludzi, a w efekcie to do
nich będą się odnosić wnioski wszelkich badań psychologicznych.
Drugi aspekt (uzasadnienie) sprowadza się do wymiaru dowód-konsekwencje. Jest to
pytanie o to, czy trafność testu dowodzona będzie w systematycznych badaniach
poprzedzających wprowadzenie testu, czy też poprzez analizę wniosków z testu już
zastosowanego.
Trafność można zatem rozważać następująco:
Dowodzenie poprawności wyjaśniania: Trafność teoretyczna
Konsekwencje wyjaśniania: Implikacje wyniku
Dowodzenie poprawności zastosowania: Trafność kryterialna
Konsekwencje zastosowania: trafność społeczna.
Uzasadnienie (metodologia badań)
Dowód konsekwencje
Przeznaczenie Wyjaśnianie Trafność
teoretyczna
Implikacje wyniku
(cel badań) Zastosowanie Trafność
kryterialna
trafność społeczna
(ekologiczna)
Model Messicka jest ważny, ponieważ dołącza do klasycznych rozważań nowy
wątek- badania trafności zorientowane na zastosowanie oraz metody badań, oparte
na analizie konsekwencji stosowania. To drugie podejście zmienia zasadniczo
punkt ciężkości badań. Wyrafinowane analizy statystyczne zostają zastępowane
analizami użyteczności (zarówno w aspekcie naukowy jak i praktycznym)
wyników testów u poszczególnych osób.
Adam Tarnowski Metodologia badań psychologicznych 43
9.5. Inne metody pomiaru w psychologii
Pomiar psychologiczny to nie tylko testy. Coraz większe znaczenie mają wskaźniki
chronometryczne, psychofizjologiczne i neuroobrazowanie.
9.5.1. Wskaźniki chronometryczne
Wskaźniki chronometryczne są oparte na analizie czasu reakcji. Metoda podwójnych
zadań pozwala badać mechanizmy poznawcze. Badany otrzymuje zadanie pierwszoplanowe
(np. wykonywanie działań w pamięci) i równocześnie jest proszony o wykonanie pewnych
zadań dodatkowych (np. zapamiętania położenia punktu). Jeśli parametry czasowe i jakość
wykonania pierwszego zadania nie pogarszają się oznacza to że oba zadania wykorzystują
odrębne struktury poznawcze (w tym przypadku pamięć werbalną i notes przestrzenny).
9.5.2. Neuroobrazowanie
Jest metodą pozwalającą lokalizować mózgową organizację procesów psychicznych.
Metody neuroobrazowania to najczęściej Elektroencefalografia (zapis potencjałów
elektrycznych wywołanych przez fale mózgowe, magnetoencefalografia, tomografia
pozytronowa i funkcjonalny rezonans magnetyczny..
Dwie pierwsze metody wykorzystują aktywność elektryczną mózgu- dlatego
pozwalają na pomiar efektów z dużą rozdzielczością czasową. Dwie kolejne metody
pozwalają śledzić przepływ krwi w strukturach mózgu, toteż od zadziałania bodźca do
zwiększenia zapotrzebowania na tlen w określonej części mózgu, zwiększenia ukrwienia i
wreszcie do zaobserwowania obrazu na skanerze upływa wiele czasu. Natomiast lokalizacja
przestrzenna struktur zaangażowanych w wykonanie zadania jest znacznie lepsza.
Problemem przy konstruowaniu eksperymentu opartego na neuroobrazowaniu jest
fakt, że mózg w danym momencie nie realizuje tylko i wyłącznie jednego zadania. Jeśli,
przykładowo, zależy nam na odszukaniu struktury mózgowej odpowiedzialnej za rozumienie
czasowników, po zaprezentowaniu czasownika na ekranie uaktywnią się struktury
odpowiedzialne za spostrzeganie wzrokowe, rozumienie słów, w tym czasowników. Aby więc
wyodrębnić tylko ostatni z elementów, należy badanie starannie zaplanować.
Pierwsza z możliwych strategii jest określana jako „logika odejmowania”. W tym celu
tworzymy pary zadań, od najprostszych (w omawianym przykładzie może to być stymulacja
światłem) aż do zadania docelowego. Każde kolejne zadanie zawiera dodatkowy element (np.
rozróżnianie liter) Odejmując cyfrowy obraz zadania pierwszego od drugiego, dowiemy się
jakie struktury są odpowiedzialne za specyficzne rozróżnianie liter, i tak dalej- aż
wyodrębnimy interesującą nas funkcję.
Druga możliwość, parametryczne różnicowanie, polega na eskalacji oddziaływania
jednego z czynników. Przykładowo, można poprosić badanych o szybkie czytanie dwóch
tekstów- z małą i dużą zawartością czasowników. Wówczas prawdopodobnie zaobserwuje się
wzrost pobudzenia rejonów odpowiedzialnych za przetwarzanie tego czynnika.
Adam Tarnowski Metodologia badań psychologicznych 44
Wykład 10. Wprowadzenie do metod statystycznych w psychologii
10.1. Dlaczego statystyka?
Istnieje szereg powodów dla których statystyka jest niezbędnym elementem wszelkich
badań naukowych, a zatem również na gruncie nauk empirycznych- w szczególności
psychologii. Metody statystyczne będą przedmiotem odrębnego kursu, w tym miejscu więc
jedynie zasygnalizowane zostaną te aspekty które mają szczególne znaczenie dla
metodologicznie poprawnego planowania badań.
Nie wszystkie odkrycia w psychologii dokonane zostały z wykorzystaniem metod
statystycznych. Freud, Piaget i wielu innych wniosło ogromny wkład chociaż pracowali na
nielicznej grupie przypadków opisywanych klinicznie. Jednak chociaż trudno przecenić tego
typu prace w kontekście odkrycia teorii, w kontekście jej uzasadnienia rola statystyki jest
znacznie większa.
Pierwszym, „metafizycznym” powodem dla którego statystyka jest do badań
naukowych narzędziem koniecznym jest „nieznośna nieprzewidywalność zjawisk”. Zjawiska
przyrodnicze wydają się lepiej poddawać opisowi probabilistycznemu niż
deterministycznemu. W każdym badanym zjawisku zawsze pozostaje element niewyjaśniony
i nieprzewidywalny. Prawa deterministyczne jeśli nawet istnieją wydają się być poza
zasięgiem ludzkiego poznania. Nawet procesy fizyczne do niedawna uznawane za
zdeterminowane okazują się przy bliższym poznaniu zależne od czynnika losowego. Według
celnej metafory Karla Poppera „na świecie jest więcej chmur niż zegarów”.
Drugi powód ma charakter logiczny. Nigdy w naukach empirycznych nie można
przeprowadzić indukcji zupełnej- czyli udowodnić ogólnej prawidłowości poprzez wyliczenie
wszystkich jednostkowych przypadków. Gdyby nawet udało się zbadać wszystkich żyjących
ludzi- nie wiadomo czy nasze prawo obowiązywało by po upływie pewnego czasu. Zatem
skazani niejako jesteśmy na badanie prób- i generalizowanie wyników na populację w drodze
statystycznej.
10.2. Pojęcie wariancji
Zasadniczą rolę w badaniu rzeczywistości pełni pojęcie zmienności, czyli wariancji.
Można stwierdzić, że to właśnie zmienność jest tym, co nauka stara się wyjaśnić. Jeśli
wszyscy ludzie mieli by podobną inteligencję- nie byłoby sensu prowadzić badań nad jej
uwarunkowaniami. Prawdopodobnie w ogóle nie powstało by takie pojęcie.
O wariancji można mówić w sensie szerszym lub węższym. W szerszym sensie
oznacza ona w ogóle jakąkolwiek obserwowalną zmienność zjawisk. W węższym sprowadza
się do współczynnika opisującego zróżnicowania danych, o ile są one wyrażone na skali
przedziałowej (dobór metod statystycznych w zasadniczy sposób zależy od tego, na jakiej
skali wyrażona jest badana zmienna).
Jeżeli (przykład E. Paszkiewicz) w klasie dzieci otrzymały oceny 2,2,3,3,4,4,5,5 to
można mówić że występuje wariancja ocen- są one zróżnicowane od 2 do 5.
Uczniów tych przebadano testem inteligencji i okazało się, że uczniowie inteligentni
mają oceny 4,4,5,5 a mało inteligentni 2,2,3,3. Zatem wariancja (rozrzut danych) w grupach
jest mniejszy niż pierwotnie, pojawiła się za to wariancja (zróżnicowanie) między grupami.
Adam Tarnowski Metodologia badań psychologicznych 45
(średnia 2.5 vs średnia 4.5). Wariancję wewnątrzgrupową nazywamy wariancją błędu-
pozostaje ona niewyjaśniona. Nie wiemy czemu jeden uczeń o niskiej inteligencji uzyskał 2, a
inny zaliczył na 3. Wiemy natomiast skąd wzięła się różnica między średnimi grupowymi
(wariancja międzygrupowa). Jest ona związana z inteligencją.
Podzielmy teraz uczniów na wysokich i niskich. Oceny uczniów niskich to 2,3,4,5 a
wysokich 2,3,4,5. W tym przypadku wariancja wewnątrzgrupowa jest równie duża jak
pierwotna (cała) zaś wariancja międzygrupowa jest zerowa.
Wyjaśnianie zjawisk to zatem wyjaśnianie ich wariancji. Jeśli jedna ze zmiennych (np.
X) pozwala w pewnym stopniu przewidzieć oczekiwane wartości drugiej zmiennej Y
powiemy że zmienna X wyjaśnia określony procent wariancji zmiennej Y. Dlatego możemy
powiedzie że inteligencja pozwala wyjaśnić oceny szkolne a wysoki/niski wzrost na to nie
pozwala.
Ilościowe ustalenie tego procentu może przebiegać bardzo różnie w zależności od
rodzaju zmiennych i charakteru zależności.
10.3. Uncertainty management-czy zawsze rozwój nauki polega na
eliminacji wariancji?
Pozytywistyczna wizja nauki (współczesny wariant- idealizacyjna teoria nauki)
sprowadzała się do eliminowania niewyjaśnionej wariancji. Kolejne badania miały za zadaie
wyjaśniać oraz to bardziej subtelne efekty, aż wreszcie (w tzw. eksperymencie idealnym)
wariancja niewyjaśniona miała się sprowadzić do zera.
Jak już wspomniano natura zjawisk jest często probabilistyczna. Często przypadek lub
„czysty błąd pomiaru” wprowadzają wariancję zjawiska i eksperymentator nie jest w stanie
uchwycić przyczyny- ponieważ po prostu ona nie istnieje.
Czy zjawisko takie jest zawsze wadą badań naukowych, czy też może powinny one
akceptować tą przypadkowość?
Zastanówmy się najpierw jakie są przyczyny wariancji (zróżnicowania) wyników
badań:
Po pierwsze wariancja ma swoje źródło w różnicach między podmiotami. Badacz
może za pomocą odpowiednich współczynników różnice te opisać i wyjaśnić przez wpływ
różnych cech jednostki
Po drugie wariancja zjawisk bierze się z losowości próby- jeśli wylosujemy 30 osób,
otrzymamy próbę nieco różniącą się od każdej innej 30 osobowej próby. Wnioskowanie
statystyczne umożliwia ocenę tego źródła wariancji, o ile próba jest rzetelna.
Po trzecie źródłem wariancji mogą być zmienne zakłócające pomiar, aktualny stan
badanego podmiotu. Badacz planując eksperyment w kontrolowanych warunkach stara się
wyeliminować to źródło.
Po czwarte, źródłem wariancji zmiennej zależnej mogą (i powinny) być zmienne
niezależne, którym poświęcone jest badanie. Badacz planując eksperyment stara się jak
najdokładniej oszacować to źródło wariancji.
I wreszcie po piąte- źródłem zmienności wyników mogą być nieadekwatne założenia
teorii. Inaczej mówiąc, nowa teoria oparta na lepszych założeniach może tłumaczyć zjawisko
dokładniej. Jeśli zaś nowa teoria nie istnieje- obowiązkiem badacza jest odkrywanie słabych
punktów dotychczas przyjmowanej teorii.
Adam Tarnowski Metodologia badań psychologicznych 46
Ostatni punkt stoi w sprzeczności z pozytywistyczną wizją nauki. Zadaniem badacza
staje się bowiem nie tyle redukowanie niewyjaśnionej wariancji, co tworzenie niepewności,
stwarzanie warunków w których badane zjawisko okaże się bardziej niejasne niż w modelu
klasycznym.
Dlatego celem nauki jest nie tylko eliminowanie niewyjaśnionej wariancji, ale poprzez
stawianie wyzwań klasycznym teoriom wręcz jej tworzenie.
10.4. Wnioskowanie statystyczne.
Jedną z cech dobrej hipotezy jest to, że mówi ona o występowaniu zależności lub
różnic, a nie o ich braku. Obecnie przekonamy się, dlaczego jest to konieczne.
Wnioskowanie statystyczne jest wnioskowaniem „nie wprost”. Oznacza to że zamiast
dowodzić twierdzenie „Mężczyźni różnią się od kobiet w zakresie zmiennej Y” postaramy się
odrzucić twierdzenie mówiące o braku różnicy.
Wyróżniamy zatem tzw. Hipotezy robocze, mówiące o istnieniu zależności oraz
hipotezy zerowe, mówiące o ich braku. Hipotezy robocze dowodzimy przez odrzucenie
hipotez zerowych.
Hipotezy dotyczą oczywiście całych populacji, zaś dostępne są jedynie wyniki w
reprezentatywnych próbach.
Przyjmijmy dla uproszczenia że problem dotyczy porównania średniego nasilenia
cechy w dwóch populacjach- mężczyzn i kobiet.
Wnioskowanie w ogólnym zarysie (i w dużym uproszczeniu) przebiega następująco:
1. Zakładamy, że hipoteza zerowa (np. „Mężczyźni nie różnią się od kobiet w
zakresie zmiennej Y”) jest prawdziwa. Zwykle model ten uzupełniamy
kilkoma innymi założeniami- co do prawdziwości których jesteśmy
przekonani.
2. Wyliczamy średnie wartości Y w próbach pochodzących z obu populacji i
pewną miarę różnicy między nimi.
3. Oczekujemy, że jeżeli prawdziwa jest hipoteza zerowa, a zatem brak
różnic między populacjami, to również średnie w próbach
reprezentatywnych będą identyczne, a miara ich różnicy bliska zeru.
4. Jeśli wyliczona na podstawie prób miara różnicy jest duża- zachodzi
sprzeczność między założeniem a wynikami empirycznymi. Należy zatem
uszanować fakty i odrzucić hipotezę zerową (jako przesłankę wnioskowania-
jedyną wątpliwą).
(prawdziwa hipoteza zerowa) → (miara różnicy bliska zera)
Empirycznie: (miara różnicy jest daleka od zera)
Zatem:
Hipoteza zerowa jest fałszywa
Zatem mamy pełne prawo przyjąć hipotezę roboczą. Naturalnie niewielka różnica
średnich może być dziełem przypadku, i nie świadczyć o konieczności odrzucenia hipotezy
zerowej. Dlatego przyjmuje się pewną graniczną wartość. Jeśli więc prawdopodobieństwo
Adam Tarnowski Metodologia badań psychologicznych 47
uzyskania danej różnicy jest mniejsze od granicznej wartości (zwanej zakładanym poziomem
istotności, zwykle =0.05) odrzucamy hipotezę zerową. Poziom istotności zatem to
prawdopodobieństwo tego, że uzyskany efekt (różnica) jest dziełem przypadku.
Prawdopodobieństwo odrzucenia prawdziwej H0 wynosi (błąd I rodzaju)
Prawdopodobieństwo nie odrzucenia fałszywej H0 wynosi (błąd II rodzaju)
Poziom istotności to prawdopodobieństwo popełnienia błędu I rodzaju.
10.5. Wielkość próby
Uzyskanie przypadkowego wyniku jest oczywiście bardziej prawdopodobne w małej
próbie. Dobrze zatem posługiwać się dużymi próbami, gdyż wówczas mamy do czynienia z
mniejszym prawdopodobieństwem popełnienia błędów zarówno jak i .
Sytuacja nie jest jednak zupełnie jednoznaczna. Przypomnijmy sobie, że H0 mówi o
zupełnym braku różnic między populacjami. Jeśli więc różnica istnieje, lecz jest mała i
merytorycznie bez znaczenia (np. dwie populacje różnią się o 2 punkty ilorazu inteligencji),
pobierając dostatecznie dużą próbę losową możemy udowodnić, że różnica ta jest istotna.
W takim przypadku, oprócz standardowej procedury sprawdzania istotności różnic
należy zastosować dodatkowo wzór pozwalający wyliczyć procent wariancji zmiennej
zależnej wyjaśnionej przez zmienną niezależną.
Jeśli np. zmienna niezależna wyjaśnia 20% wariancji zmiennej zależnej, oznacza to że
w populacji osób o identycznych wartościach zmiennej niezależnej, wariancja zmiennej
zależnej zmniejszy się o 20% w porównaniu z wariancją w całej populacji.
Jeśli np. wariancja ogólna ocen szkolnych wynosi 2, i inteligencja wyjaśnia 25%
wariancji ocen szkolnych, to w grupie osób o jednakowej inteligencji wariancja ocen
szkolnych wyniesie 1,5.
Naturalnie używana w powyższych przykładach hipoteza o różnicy średnich to tylko
jedna z wielu jakie można weryfikować w drodze statystycznej.
10.6. Problem reprezentatywności próby.
Podstawowym założeniem analiz statystycznych jest dobór reprezentatywnej próby.
Aby dane uzyskane w próbie można było uogólnić na całą populację próba musi
odzwierciedlać jej skład. Powinna zatem być pobrana w sposób losowy i dostatecznie liczna.
Trudno dobrać próbę sensownej wielkości odzwierciedlającą strukturę populacji pod
względem wszystkich zmiennych. Toteż zwykle, w drodze tzw. losowania warstwowego
dobiera się próbę tak, aby jej struktura odpowiadała strukturze populacji pod względem
zmiennych ubocznych ważnych dla badanego tematu.
W praktyce często wystarcza jeśli badacz uczciwie dobiera próbę w sposób
nietendencyjny.
Próba reprezentatywna w badaniu dotyczącym jednego tematu, może być kompletnie
niereprezetatywna w zakresie innego tematu. Np. badając zagadnienia psychofizjologiczne
Adam Tarnowski Metodologia badań psychologicznych 48
można oprzeć się na wynikach próby złożonej ze studentów psychologii. Kiedy chcemy badać
zagadnienia empatii czy spostrzegania społecznego, taka próba będzie silnie tendencyjna.
Przy okazji warto zastanowić się nad reprezentatywnością badań przez Internet.
- Istnieje możliwość uzyskania potencjalnie dużej próby,
- dotarcia do osób o specjalnej charakterystyce- np. osoby z cukrzycą
w wieku 20-30 lat, o IQ powyżej 130 będące ofiarami przestępstwa.
- Badania takie niewiele kosztują, łatwo wprowadzić korekty
procedury po fazie pilotażu,
- pełna dowolność udziału w badaniu,
Wady eksperymentu prowadzonego przez Internet:
- różnice w procedurze badawczej zależne od użytkowanego sprzętu,
- niereprezentatywność próbki dla populacji generalnej (np. wśród
użytkowników Sieci większość stanowią mężczyźni)
- brak wpływu na selekcję osób badanych, konieczność kontroli
możliwości dwukrotnego udziału tych samych osób.
- problemy związane z motywacją (większa ilość rezygnacji w trakcie
eksperymentu w porównaniu z badaniem klasycznym),
- brak możliwości bezpośredniego wyjaśnienia osobie badanej
ewentualnych wątpliwości.
- Po pierwsze trudno czasem utrzymać motywację uczestników.
Początkowe zainteresowanie tematyką często ustępuje znużeniu,
kiedy badany musi zaznaczać odpowiedzi na kilkadziesiąt lub więcej
pytań. Kiedy następnie pojawia się na ekranie kolejna, jeszcze
dłuższa partia materiału- dalsza praca wymaga dużego samozaparcia.
Generalnie, należy zdawać sobie sprawę z trudności wynikających z użycia Internetu
w badaniach, ale także z ogromnych możliwości jakie daje to narzędzie.
Adam Tarnowski Metodologia badań psychologicznych 49
Wykład 11. Planowanie Eksperymentów
Ciekawy tekst nt. historii eksperymentów psychologicznych:
http://www.comnet.ca/~pballan/PsyExpers.htm
Jeśli chcesz wziąć udział w eksperymencie przez Sieć:
http://www.psychologie.unizh.ch/sowi/Ulf/Lab/WebExpPsyLab.html
11.1. Przykład
Przykładem ilustrującym zasadnicze rodzaje badań psychologicznych niech będą trzy
badania, weryfikujące następujące hipotezy:
A. Czas czytania tekstu przez mężczyzn jest inny niż czas czytania tekstu przez
kobiety
B. Czas czytania tekstu zależy od jasności oświetlenia
C. Czas czytania tekstu zależy od tego, czy osoba badana jadła śniadanie.
Każde z tych trzech badań może być przeprowadzone w identycznym schemacie
analizy danych-porównania średniego czasu czytania tekstu w dwóch grupach. Identyczna jest
zmienna zależna-czas czytania tekstu. Różnią się one jednak zasadniczo, jeśli weźmiemy pod
uwagę status zmiennej niezależnej.
11.2. Badanie korelacyjne.
W przypadku A. zmienna niezależna stanowi stałą charakterystykę osoby badanej.
Badacz nie ma żadnej możliwości manipulowania tą zmienną. Może jedynie rejestrować
współwystępowanie pomiędzy określoną płcią a szybszym czytaniem tekstu.
Tego typu badanie nazywa się badaniem korelacyjnym. Należy podkreślić że nie
wiąże się to z koniecznością stosowania analizy korelacyjnej jako zasadniczej metody analizy
danych. Badanie to nie daje badaczowi żadnej możliwości manipulacji zmienną Schemat
badania nie może być podstawą do wyciągania wniosków o zależności przyczynowo-
skutkowej. Jak była już mowa wcześniej w wykładzie poświęconym zależnościom pomiędzy
zmiennymi, zarówno zmienna X może być przyczyną Y, jak i Y przyczyną X. Może także
wchodzić w grę trzecia zmienna Z stanowiąca przyczynę zarówno X jak Y. Oczywiście w
przykładzie twierdzenie Płeć jest zdeterminowana przez szybkość czytania jest absurdalne-
niemniej kierunek zależności wynika z tego co skądinąd wiemy o naturze badanych
zmiennych, nie wynika bezpośrednio z badania.
11.3. Badanie quasi-eksperymentalne
W przypadku C również badacz nie manipuluje zmienną niezależną- niektóre z osób
badanych zjadły śniadanie, inne nie- i zależy to od czynników losowych, a nie od badacza.
Jednak w odróżnieniu od poprzedniej sytuacji zmienna niezależna nie stanowi trwałej
charakterystyki badanych osób, lecz jest zdarzeniem losowym, niezależnym od badacza.
Badacz wykorzystuje to zdarzenie chociaż nie wpływa na jego wywołanie. Może traktować je
jako przypadkowe, jednak jeśli chce pokusić się o interpretację przyczynowo-skutkową musi
zastanowić się czy na wywołanie zdarzenia nie miała wpływu inna zmienna ważna dla
zmiennej zależnej (np. niejedzenie śniadania może być skorelowane z małą ilością snu).
Adam Tarnowski Metodologia badań psychologicznych 50
11.4. Badanie eksperymentalne
Wreszcie w sytuacji B badacz ma pełną kontrolę nad zmienną niezależną. Może
dowolnie regulować oświetlenie przy którym badani czytać będą tekst. Osoby badane mogą
zostać losowo podzielone na grupy czytające tekst przy słabym bądź silnym oświetleniu.
Badanie takie stanowić będzie zasadniczy przedmiot dalszych rozważań. Wg Brzezińskiego
model eksperymentalny zakłada
1. Manipulację co najmniej jedną zmienną niezależną główną;
2. Kontrolowanie pozostałych zmiennych niezależnych ubocznych i zakłócających;
3. Pomiar zmiennej zależnej.
Manipulacja zmienną niezależną główną może być dokonywana przez losowy podział
na grupy którym przypisane są poszczególne wartości zmiennej niezależnej (inaczej mówiąc,
chodzi o losowe przypisanie osobom badanym poziomów zmiennej niezależnej) Jest to
określane jako randomizacja II stopnia.
W pierwszym etapie randomizacji (randomizacja I stopnia) z populacji pobierana jest
próba reprezentatywna. W drugim etapie dopiero członkowie próby dzieleni są losowo do
grup eksperymentalnych. Pozwala to wierzyć, iż poszczególne grupy są równoważne pod
względem badanych zmiennych. W przykładzie C, gdyby badacz zastosował losowy podział
na jedzących i niejedzących śniadanie mógłby mieć nadzieję że w obu grupach znajdzie się
podobna liczba osób niewyspanych.
Konstrukcja badania eksperymentalnego powinna być adekwatna do stawianej
hipotezy. Zatem badacz winien dążyć do maksymalizacji wariancji międzygrupowej i
minimalizacji wariancji wewnątrzgrupowej.
Klasyczny schemat eksperymentu zakłada dwukrotny pomiar zmiennej zależnej Y w
grupie eksperymentalnej, w której badacz zastosował bodziec eksperymentalny (zadziałał
zmienną niezależną X) oraz grupę kontrolną, w której nie podjął żadnych działań poza
dwukrotnym pomiarem Y. Ponieważ grupy różnią się między sobą jedynie X, zatem wszelka
rozbieżność między wynikami pomiaru w grupach może być interpretowana jako efekt
działania zmiennej niezależnej.
Pytanie o trafność planu eksperymentalnego to pytanie o to, jakie wnioski można z
niego poprawnie wyciągnąć. W praktyce badawczej dochodzi niekiedy do artefaktów- badacz
przypisuje działaniu zmiennej eksperymentalnej wywołanie zjawiska, którego źródło leży
gdzie indziej. Mówimy wówczas o zakłóceniu trafności wewnętrznej.
11.5. Czynniki zakłócające trafność wewnętrzną.
Pierwszy z nich to historia. Terminem tym określa się te zdarzenia losowe, które nie
były kontrolowane przez badacza, a które wpłynęły na wynik eksperymentu.
Yp1 Yk1
Yk2 Yp2
X
Adam Tarnowski Metodologia badań psychologicznych 51
Dojrzewanie jest to spontaniczny rozwój organizmu w trakcie badań. Ma to
szczególne znaczenie w przypadku badań z dziedziny psychologii rozwojowej oraz zjawisk o
dużej dynamice czasowej.
Testowanie polega na uczeniu się przez badanych procedury pomiaru zmiennej
zależnej. Jeśli pomiar ten może zależeć od wprawy- wówczas naturalnie drugi test wypadnie
lepiej.
Selekcja to dobór niejednorodnych grup badanych. Niekiedy po preteście dokonuje się
korekty składu grup, aby uniknąć tego źródła błędu. Dobry wynik przynosi również
zwiększenie liczebności próby.
Więcej informacji o błędach zaburzających trafność wewnętrzną znaleźć można w
pracach J. Brzezińskiego.
Adam Tarnowski Metodologia badań psychologicznych 52
Wykład 12. Trafność zewnętrzna planów eksperymentalnych i alternatywne schematy badawcze
12.1. Trafność zewnętrzna eksperymentu
Czynniki zakłócające trafność zewnętrzną mają inną naturę. W tym przypadku w
samym eksperymencie istotnie zadziałała zmienna niezależna zgodnie z intencją badacza,
jednak wyniku tego nie można zgeneralizować na ogół populacji.
Błąd taki popełnia badacz bądź lekceważąc randomizację I stopnia
(niereprezentatywna próba) bądź też dobierając niewłaściwy zakres zmiennej niezależnej. W
typowym przykładzie krzywoliniowej zależności między motywacją a osiągnięciami badacz
w zależności od tego, czy skorzysta z porównania grup A i B, B i C czy A i C dojdzie do
zupełnie przeciwstawnych wniosków.
Trzeci rodzaj błędów zakłócających trafność zewnętrzną eksperymentu to interakcje
wcześniej omawianych błędów zaburzających trafność wewnętrzną z czynnikiem
eksperymentalnym. Np. efekt testowania w interakcji z bodźcem eksperymentalnym sprawia,
że badany nie reaguje tylko na bodziec, ale na bodziec w kontekście pretestu. Pretest niejako
uprzedza go i nastawia na bodziec eksperymentalny. W takim eksperymencie zmianę wartości
zmiennej zależnej przypisać można istotnie bodźcowi eksperymentalnemu (zachowana jest
więc trafność wewnętrzna) jednak efekt ten jest modyfikowany przez pretest, nie wiadomo
zatem jak zachowali by się badani którzy nie mieli do czynienia z pretestem.
12.2. Alternatywne schematy (plany) eksperymentalne
Aby uniknąć powyższych błędów badacze często modyfikują schemat klasyczny.
Ponieważ ostatni z omówionych błędów (interakcja testowania i bodźca eksperymentalnego)
jest wynikiem pretestu, można rozważyć schemat bez pretestu:
A C
B
Yk1
Yk2
X
Adam Tarnowski Metodologia badań psychologicznych 53
Schemat ten narażony jest silnie na błąd selekcji, ponieważ nie można go kontrolować
porównując wyniki pierwszego badania. Wymaga zatem zastosowania licznych grup i
szczególnie starannego ich doboru.
Niekiedy jednak uniknięcie błędu selekcji jest szczególnie trudne, gdy np. badania są
pracochłonne i muszą być ograniczone do małej próby, lub trudno jest wprowadzić grupę
kontrolną (np. w badaniach nad psychoterapią- należałoby zaproponować alternatywną
„nieterapeutyczną” procedurę dla grupy kontrolnej). Wówczas rozwiązaniem może być
schemat bez grupy kontrolnej:
Schemat taki narażony jest w dużym stopniu na błędy testowania, historii, dojrzewania
oraz interakcji pretestu z bodźcem eksperymentalnym. Mimo tak imponującej liczby wad jest
jednak często stosowany. W wielu badaniach zwłaszcza o charakterze laboratoryjnym
możliwe jest jego wykorzystanie, choć badacz musi przez konstrukcję odpowiedniej
procedury badawczej zminimalizować wpływ wspomnianych źródeł błędu. Bardzo często jest
to jednak łatwiejsze niż uzyskanie dobrej grupy kontrolnej.
Schemat logicznie najdoskonalszy, jednak ze względu na dużą pracochłonność rzadko
stosowany w praktyce to schemat Solomona. Stanowi on połączenie schematów klasycznego i
bez pretestu
Analiza efektów w poszczególnych grupach pozwala na określenie jakiego typu błędy
eksperymentalne występują w przypadku danej procedury. Schemat ten może mieć duże
zastosowanie w badaniach których celem jest oszacowanie wpływu czynników zakłócających
w danym typie eksperymentów. Więcej szczegółów znaleźć można w pracy Brzezińskiego
(Brzeziński 1997, strony 328-332)
Tam też omówionych jest kilka dalszych planów eksperymentalnych.
Yp1 Yk1
X
Yp1 Yk1
Yk2 Yp2
X
Yk3
Yk4
X
Adam Tarnowski Metodologia badań psychologicznych 54
Wszystkie plany badawcze opracowane dla badań eksperymentalnych mogą też mieć
zastosowanie w badaniach quasi-eksperymentalnych, gdy nie ma możliwości manipulacji
zmienną eksperymentalną. Należy jednak pamiętać o trudnościach w interpretacji zależności
przyczynowo-skutkowych.
12.3. Metody kontroli zmiennych ubocznych
Badacz powinien kontrolować w badaniu zmienne uboczne, to znaczy umieć
oszacować lub wyeliminować ich wpływ na relację między zmienną niezależną główną i
zmienną zależną. Istnieje kilka możliwości takiej kontroli.
1. Ograniczenie zakresu zmiennej. Np. decydujemy się na badanie jedynie
mężczyzn lub osób o średniej inteligencji. Jeśli próba będzie jednorodna-
zmienna kontrolowana nie będzie wpływać na wyniki badania, jednak
wnioski będą musiały być również ograniczone do takiej populacji.
2. Wbudowanie w plan eksperymentalny. Np. badanie wg schematu
klasycznego analizujemy osobno dla grupy mężczyzn i kobiet. W takiej
sytuacji oceniać będziemy interakcyjny wpływ badanych zmiennych
niezależnych na zmienną zależną.
3. Kontrola statystyczna- przy zastosowaniu specjalnych procedur, np. analizy
kowariancji, korelacji cząstkowej itp.
4. Dobór celowy- badacz odchodzi od pełnej randomizacji II stopnia, ingerując
w skład grup. Ingerencja ta może polegać na
a. Doborze grup w taki sposób, aby rozkład ubocznych zmiennych istotnych
dla badacza był identyczny jak w populacji.
b. Wyrównaniu poziomu zmiennej zależnej po preteście
c. Doborze parami- do każdej osoby w grupie eksperymentalnej dobierana
jest osoba do niej podobna pod względem kilku zmiennych, np. tej samej
płci, w tym samym wieku i z podobnym wykształceniem.
12.4. Źródła artefaktów
Prawidłowe badanie, aby uniknąć wpływu oczekiwań badacza na wyniki powinno
rozdzielać funkcje osoby planującej badanie, eksperymentatora (prowadzącego)
oraz osoby analizującej dane. Każda z tych osób może jednak spowodować szereg
zakłóceń trafności badania.
Osoba planująca badanie:
Badacz posiada swój paradygmat, sposób widzenia problemu. Rzutuje on na sposoby
przeprowadzenia badania, sformułowanie pytań, pomijanie alternatywnych hipotez
wyjaśniających zjawisko.
Tendencja do utrzymywania hipotez potwierdzających własny model.
Badacz powinien znać alternatywne teorie zjawisk i być świadomy własnych
przekonań, w tym ukrytych teorii.
Adam Tarnowski Metodologia badań psychologicznych 55
Eksperymentator (prowadzący badanie)
Jego cechy osobowości mogą wpływać na dane uzyskane w wywiadach
Nieprzestrzeganie zasad procedury eksperymentalnej, np. stosowanie badań
grupowych w miejsce indywidualnych, niebezpośrednie zbieranie danych.
Wzmacnianie oczekiwanych zachowań, werbalne lub niewerbalne
nieprawidłowe rejestrowanie danych (pomyłki), lub ich fałszowanie w celu
wcześniejszego zakończenia badań.
wpływ oczekiwań, np. przekonanie o ważności sprawdzanej hipotezy.
dobór próby, np. dobieranie wśród osób znajomych
zmiana miejsca badania, np. tendencja do wybierania miłych domów albo nie
wchodzenia na ostatnie piętra
Badacz powinien zadbać o dobre przeszkolenie eksperymentatora w procedurze badania,
ale nie wprowadzać go w swoje hipotezy. Jego praca powinna być sprawdzana.
Błędy podczas analizy danych.
Pomijanie sprawdzania założeń metod statystycznych, używanie zbyt małych prób.
Wybór łatwiejszych metod analizy, np. stosowanie metod dostępnych w pakiecie
statystycznym.
Słaba znajomość procedury obliczeń.
Nadużywanie technik wielozmiennowych.
Formułowanie post hoc hipotez kierunkowych (gdy kierunek zależności nie wynika z
przesłanek, ale użycie testu jednostronnego pozwala udowodnić istotność).
Pomijanie informacji o wynikach nieudanych
Osoba analizująca dane powinna znać nie tylko statystyką, ale i częściowo dziedzinę
której dotyczą badania. Musi znać oprócz pakietów statystycznych również istotę
stosowanych wzorów. Powinna mieć dobrą orientację w stosowanych technikach
badawczych.
Adam Tarnowski Metodologia badań psychologicznych 56
Wykład 13. Procedura Ex post facto (EPF)
W badaniu wg schematu ex post facto zadaniem badacza nie jest wywołanie zjawisk,
jak w przypadku badań eksperymentalnych lecz wyjaśnienie przyczyn zjawisk które już
zaszły. Istnieje wiele zjawisk (zaburzenia psychiczne, przestępczość itd.) które z przyczyn
metodologicznych lub etycznych nie mogą być badane na drodze eksperymentalnej.
W takim wypadku badacz wyszukuje grupy różniące się pod względem badanej
zmiennej zależnej Y (a więc maksymalizuje jej wariancję) a następnie stara się możliwie
dokładnie zbadać różnice między tymi grupami. Opis dwóch wariantów metody znaleźć
można w pracy Brzezińskiego
(Brzeziński 1997, ss.431-442).
Procedura EPF w wariancie eksploracyjnym polega na wyszukaniu maksymalnej
ilości zmiennych mogących różnicować grupę w której zjawisko Y wystąpiło od grupy
kontrolnej.
Zasadniczą techniką badawczą jest wywiad, ponieważ zmienne niezależne działały
wcześniej, przed pojawieniem się zjawiska Y. Badacz jeśli stosuje np. test osobowości musi
zdawać sobie sprawę, że mierzona zmienna może być zarówno następstwem, jak i przyczyną
zmiennej niezależnej Y. Dlatego stosowanie testów dopuszczalne jest jedynie wówczas, kiedy
dotyczy cech zasadniczo trwałych, nie podlegających zmianom pod wpływem środowiska
(temperament, niektóre zdolności). Podobne ograniczenia dotyczą metod obserwacyjnych.
Po stwierdzeniu różnic badacz powinien oczyścić uzyskany obraz zależności z
zależności pozornych. Jeśli stwierdza się różnicę w subiektywnie odczuwanym lęku i
występowaniu objawów psychosomatycznych- prawdopodobnie druga różnica może być
wyjaśniona przez pierwszą, i nie stanowi niezależnego odkrycia.
Drugi typ procedury EPF to procedura konfirmacyjna. Zasadniczą różnicą między
pierwszym a drugim typem badania jest sformułowanie szczegółowych hipotez dotyczących
zależności.
Adam Tarnowski Metodologia badań psychologicznych 57
Wykład 14. Etyka badań naukowych
Brzeziński 1997, ss. 131-135, 175-178,
Recommended