Myslím, že jeden z hlavních problémů konceptu reliability, který mi vlastně tak trochu vyvstává i z té poslední přednášky, je to, že není úplně snadný na nějaké konceptuální pochopení. Intuitivně si asi každý dokáže odvodit, že reliabilita je "přesnost" nebo "konzistence" měření, ale když se to převede do řeči definic CTT, tj. "korelace paralelních testů" nebo "rozptyl pozorovaného skóru vysvětlený pravým skórem" už se to začíná trochu komplikovat. Na to se pak nabaluje to, že spousta výzkumníků nerozumí (nebo apriori nechce rozumět) logice za výpočty jednotlivých ukazatelů odhadů reliability (která ale není nijak brutálně složitá, alespoň u těch nejzákladnějších) a používá je naprosto bezmyšlenkovitě, protože takový je "oborový zvyk" (což je především smutný případ koeficentu alfa). V souvislosti s tím mi přijde hezký postřeh Choa (2016), že alfa dosáhla takové popularity především proto, že měla "lepší marketing" :-)
Další problém, který vede k častým miskoncepcím, je nejednotná a zavádějící terminologie. Na jedné straně může být pro řadu výzkumníků matoucí, když bývá sousloví vnitřní konzistence často užíváno téměř jako ekvivalent reliability. To může svádět k tomu, že výzkumníci chápou vnitřní konzistenci jako ukazatel unidimenzionality (schématicky to můžeme vyjádřit úvahou: "položky konzistentě/reliabilně měří zamýšlený konstrukt => škála je proto jednodimenzionální"). Proto asi bylo často mylně vyvozováno, že pokud hodnota koeficientu alfa vychází vysoká, značí to, že škála je unidimenzionální ("protože předpokladem alfy je unidimenzionalita škály, takže pokud by unidimenzionální nebyla, vycházela by nízká, že jo"). To taky může vést k chybnému směšování problematiky reliability měřících nástrojů s problematikou jejich validity. Druhý problém spojený s terminologií řeší Cho (2016) - to jest, že existuje spoustu označení pro v zásadě stejné ukazatele, což zákonitě vytváří zmatek (a výzkumníci se tak raději uchylují ke "staré známé a osvědčené alfě").
Prezentované obtíže je určitě potřeba řešit, protože jsou součástí mnohem větší skádanky bezmyšlenkovitého používání statistických postupů ve výzkumu (do čehož mimo problematiky reliability spadá např. NHST atd.), které je jednou z příčin současné replikační krize v psychologii. Pokud se na obtíže nebude soustavně a důkladně upozorňovat, tak se jen těžko bude posouvat naše psychologické poznání. Výzkumníci budou používat špatné měřící nástroje a hlavně budou nástroje špatně konstruovány (viz "honění alfy", psychometrický paradox - prostě propojenost problematiky reliability a validity).
Myslím, že "cestou ven" z toho marasmu by na jedné straně mohlo být psaní obdobných osvětových článků typu Cho (2016) a McNeishe (2017) i v národních jazycích a prezentovat je nejen v metodologicky zaměřených časopisech. To je podle mě důležitý prvek, aby na ty obtíže byli upozorňováni výzkumníci, kteří se tolik nezajímají o psychometrické otázky. Současně by se měly tyto články snažit prezentovat problematiku co nejvíce koncepčně a co nejmíň technicky, aby to potenciální cílové publikum neodrazovalo. Zároveň je asi potřeba ten koncept reliability zmiňovat a postupně probírat už od prvních ročníků studia psychologie (a všech věd, které se s reliabilitou musí nějak potýkat) - a to především kvůli jeho složitosti. Jen díky postupnému systematickému výkladu linoucím se celým studiem psychologie se podle mě dá docílit toho, aby ty časté miskoncepce trochu opadly (jak ve výzkumu, tak v praxi).