Czym jest jakość ?
Po raz pierwszy pojęcie jakość
(z języka greckiego poiotes)
zdefiniował Platon
jako "pewien stopień doskonałości". Według tego filozofa jakość
posiada cechy obiektywne, mierzalne, jak masa i kształt oraz subiektywne,
oceniane przez każdego inaczej, jak barwa lub zapach. Kolejny z wielkich starożytnych filozofów, Cyceron tworząc łaciński
termin filozoficzny dla określenia greckiego pojęcia, wprowadził słowo qualitas, które przeszło do
niektórych języków romańskich i germańskich, m.in. angielskie quality. Platon zdefiniował pojęcie
jakości uważając, że „jakość (jako piękno) jest sądem wartościującym, wyrażonym
przez użytkownika. Jeśli nie ma takiego użytkownika – nie ma takiego sądu.” [1] Kolejny z wielkich myślicieli, Arystoteles uważał, że „jakość to to, co sprawia, że
rzecz jest rzeczą, którą jest.”[2] Odnośnie jakości swoje
poglądy przedstawił również wielki „wschodni” myśliciel, Lao Tsu mówiąc, że „jakość
to doskonałość, której nie da się osiągnąć, lecz do której trzeba uporczywie
zdążać.”[3]

Aby wyjaśnić czym jest jakość i jakie ma znaczenie w badaniach
jakościowych musimy przybliżyć sobie pojęcia związane z trafnością i
rzetelnością.
Czym jest trafność ?
David Silverman w swojej książce napisał, że „przez trafność
rozumiem prawdę, podejmowaną jako zakres, w którym wyjaśnienie rzeczywiście
odzwierciedla zjawisko społeczne, do którego się odwołuje.”
Według Silvermana trafność to synonim prawdy. Często jednak wątpi
się w trafność wyjaśnień, ponieważ badacz nie podjął żadnej próby sprostania
przeciwstawnym przykładom. Niestety zdarza się, że duże zespoły badawcze, które
niejednokrotnie współpracują ze sobą w ramach nauk, mogą całkiem niespodziewanie narazić na szwank wiarygodność
odkryć. Przykładem takiego postępowania według Silvermana może być wykład profesora,
na którym prezentowane są tylko wybrane „idealne” slajdy, podczas gdy na stronę
zostały odłożone te, które mogłyby wywołać
niewygodne pytania.
Jak zauważają Nigel i Jane Fieldingowie, dokonuje się pewnych
interpretacji nawet wówczas, gdy wykorzystuje się pozornie „twarde” wskaźniki
ilościowe. Fieldingowie twierdzą, że „ostatecznie wszelkie metody gromadzenia
danych podlegają analizie „jakościowej” o tyle, o ile sama analiza stanowi
interpretację, przez co staje się wyjaśnieniem selektywnym. Bez względu na to,
czy zebrane dane mają charakter ilościowy, czy jakościowy, należy skonfrontować
podstawy wyprowadzonych wniosków.” Idąc za tym tropem musimy uważać na pułapki,
które nas czekają przy tworzeniu projektów badawczych. Przez powyższe
stwierdzenie Fieldingowie próbują nam przekazać, że „badacze posługujący się
metodami ilościowymi nie mają żadnego klucza do trafności.”
Możemy jednak użyć „narzędzia”, aby osiągnąć bardziej trafne
wyniki. Jest to pięć powiązanych ze sobą sposobów krytycznego myślenia o
jakościowej analizie danych. W ich skład wchodzą:
1. „Zasada możliwości obalenia”, która to metoda informuje nas –
badaczy – że powinniśmy przezwyciężyć pokusę wyciągania łatwych wniosków tylko
dlatego, że istnieją pewne dowody, które zdają się prowadzić w interesującym
nas kierunku. Wręcz przeciwnie, musimy poddać owe dowody wszelkim dostępnym
próbom.
2. „Metoda ciągłego porównywania”, która to metoda oznacza, że
badacz posługujący się metodami jakościowymi musi zawsze próbować odnaleźć inny
przypadek umożliwiający mu przetestowanie tymczasowych hipotez. Metoda ciągłego porównywania jest
równoznaczna ze sprawdzaniem oraz porównywaniem wszelkich fragmentów danych
tworzących pojedynczy przypadek. Niestety trudności wynikające z użytkowania
tej metody polegają na tym, że metoda ciągłego porównywania oznacza wielokrotne
przejrzenie różnych partii danych, jest to zadanie niebagatelne. W pewnym
momencie bowiem trzeba zbadać i poddać analizie wszystkie części danych.
3. „Dogłębna analiza danych”, gdzie owa dogłębność ma źródło w
fakcie, iż w badaniach jakościowych „wszystkie przypadki […] są przedmiotem
analizy.” Jako rezultat pracy tą metodą otrzymujemy całościowy, dokładny model,
który wszechstronnie opisuje określone zjawisko, zamiast twierdzenia o
nieskomplikowanej korelacji między warunkami wcześniejszymi a następującymi po
nich.
4. „Analiza przypadków odchyleń”. Z przypadkami odchyleń mamy do
czynienia w dwóch rodzajach okoliczności; pierwszej kiedy dostępne zmienne nie
są źródłem wystarczająco silnej korelacji statystycznej i w drugim przypadku,
kiedy wykryto dobrą korelację, ale istnieje podejrzenie, że może ona być „pozorna”. Wyodrębnienie oraz dalsza
analiza przypadków odchyleń może podnieść trafność badania. Ważne jest jednak,
aby taka identyfikacja wypływała z teoretycznego podejścia do danych.
5. „Używanie odpowiednich tabel” jest bardzo dobrą metodą
badawczą, gdyż proste tabele mogą poprawić jakość analizy danych. Musimy mieć
jednak na względzie, że tworzenie dla celów fabularyzacji kategorii
pozbawionych racjonalnego zaplecza teoretycznego zaowocuje obliczeniami, które
nadadzą pozorną trafność badaniu.
Proste techniki obliczeniowe, podbudowane teoretycznie i mające
oparcie we własnych kategoriach uczestników, mogą stać się środkiem
umożliwiającym zbadanie całych zespołów danych, zwykle niedostrzeganych w
zaawansowanym badaniu jakościowym. Zamiast ufać słowu badacza, czytelnik ma
szansę na wyrobienie sobie opinii o właściwościach materiału jako całości. Z
kolei badacze mogą sprawdzać i modyfikować swoje uogólnienia, pozbywając się
przy tym dręczących wątpliwości co do dokładności swoich wrażeń dotyczących
danych.
Czym jest rzetelność ?
David Silverman uważa, że „rzetelność odnosi się do stopnia
zgodności, gdy przypadki są przypisywane do tej samej kategorii przez wielu
obserwatorów lub przez jednego obserwatora w różnych okolicznościach.”
Aby kryteria rzetelności w badaniu naukowym były spełnione przez
badającego pozytywnie, ważne jest żeby kodowanie oraz analiza danych odbywała
się „na ślepo”, tzn. aby zarówno koderzy, jak i prowadzący analizę „wykonywali
swoje zadania badawcze, nie znając oczekiwań ani hipotez kierujących projektem.”
Poza tym ważne jest wykorzystanie komputera do zapisywania i analizy danych, co
da nam pewność, że przedstawione wzorce miały rzeczywiste oparcie w danych, a
nie były jedynie dobrze wybranymi przykładami. Przydatna będzie nam również rzetelność
interpretacji opartej na zapisie nagrania taśm audio. Rzetelność w tym sektorze
może być słabsza w związku z pominięciem w transkrypcji z pozoru trywialnych, a jednak często kluczowych pauz i nakładających się na
siebie wypowiedzi.
Podsumowując zagadnienia związane z trafnością i rzetelnością
wynieść można wniosek, że jeśli nie zostaną przedstawione odbiorcom procedury,
którymi się posłużyliśmy w celu zapewnienia przyjętym przez nas metodom
rzetelności, a wnioskom trafności, niewielki sens ma dążenie do sfinalizowania
naszej rozprawy badawczej.
Brak komentarzy:
Prześlij komentarz