Faktoranalyse

Faktoranalysen er en empirisk statistikmodel, der indtager en særskilt plads blandt en række avancerede multivariate matematisk-statistiske analysemetoder, og som navnlig bruges til at forenkle fortolkningen af et datamateriale, der indeholder en stor mængde observationer/variable. – Faktoranalysen, hvis matematiske grundlag i sin tid blev skabt og formuleret af hhv. den engelske psykolog Charles Spearman (1863-1945) og amerikaneren Louis Leon Thurstone (1887-1955)[1] til brug for måling af visse særlige mentale egenskaber (psykometri), er specielt bemærkelsesværdig derved, at den bygger på et abnormt stort antal udregninger med udgangspunkt i korrelationskoefficienter - og med tilsyneladende uendelige skiftende rækker af gentagne multiplikationer mellem lutter mangecifrede decimaltal (via matrix algebra) og er derfor i praksis nærmest umulig at gennemføre uden brug af moderne computer-assistance. Før computerens opfindelse kunne en moderne multi-faktoriel faktoranalyse af fx testresultaterne fra en psykologisk undersøgelse over menneskets forskellige intellektuelle evner nemt lægge beslag på en halv snes beregnere på fuld tid igennem mere end 3-4 måneder, før det færdige udregningsresultat omsider kunne foreligge i form af identificeringen af de måske blot 7-8 faktorer, der fandtes skjult i det store datamateriale.

Baggrunden for Charles Spearman’s oprindelige to-faktorteori skyldtes iagttagelser af børns skolepræstationer, hvor det dengang som nu var en forholdsvis kendt sag, at præstationerne på en lang række tilsyneladende meget forskellige områder ofte forekom indbyrdes tæt forbundne og dermed muligvis kunne afsløre en relativt høj korrelation. Det gjaldt fx mentale evner som indlæringshastighed, problemløsning, hukommelsesspændvidde, opfattelsesevne, læsefærdighed, skriftlighed, talbehandling, abstraktionsevne, etc., og hvor det hyppigt viste sig, at hvis skolebarnet fx var rigtig god til at huske en lang række forskellige ting ad gangen (hukommelsesspændvidden), klarede det sig gennemgående også godt i de andre mentale færdigheder – og vice versa. Dette forhold mente Spearman, at der givetvis måtte være en grund/årsag til. Og til brug for en mulig verificering af sin hypotese om eksistensen af en generel, central faktor (den såkaldte "g-faktor") bag disse tilsyneladende forskellige intellektuelle evner, udviklede Spearman i 1904 derpå den faktoranalytiske metodologi med udgangspunkt i krydstabulerede korrelationsberegninger. Det skete som nævnt i form af den særlige to-faktor teori [2] på baggrund af hvilken, han efterfølgende erhvervede sig doktorgraden i 1906 ved universitetet i Leipzig, hvortil han en overgang havde henlagt en del af sin studietid inden for det psykologiske fagområde.

To-faktor teorien er siden afløst af både gruppefaktor teorien og multifaktor teorien. Men gøres eksempelvis korrelerede faktorer på området til genstand for yderligere faktoranalyse til opnåelse af 2. eller 3. ordens faktorer, fås i reglen en enkelt tilbageværende generel intelligensfaktor, der (som påvist af H.J. Eysenck) ret nøje viser sig at svare til Spearman’s centrale g-faktor. [3] Spearman hævdede, at denne generelle del af alle intelligensmålinger, selve g-faktoren, var neurofysiologisk funderet og skulle rettelig forstås som en målelig fysisk kraft, der var til stede i mere eller mindre omfang hos de forskellige individer, snarere end som et særligt fænomen af mental eller sjælelig beskaffenhed - ikke ulig begreber som fx hestekraft o.lign.

Selvom faktoranalysen således oprindelig blev udviklet som stringent empirisk forskningsmetode inden for differentialpsykologien (især testpsykologien), har faktoranalysen som matematisk/statistisk metodologi efterfølgende vundet indpas i mange andre helt forskellige fagvidenskaber. Det gælder både inden for kulturvidenskab, samfundsvidenskab og naturvidenskab. Således bl.a. i 2003 inden for astrofysikkens nylige klarlæggelse af Big-Bang teoriens følgevirkninger for spredningsmønstret af både galaxerne og varmefordelingen i universet. Ligesom det i 2018 blev afsløret, at det verdensomspændende sociale medie, Facebook, benyttede sig af faktoranalyse til at beregne brugernes personlighedsprofiler til brug for ikke alene udformningen af reklamebureauernes påvirkningsstrategier over for udvalgte potentielle kundegrupper, som intetanende færdedes på Facebook, men også til brug for storpolitiske manipulationer af visse vælgergrupper i de vestlige demokratier. Faktoranalysen indgår her som en væsentlig og integreret del af de algoritmer, som Facebook har lagt til grund for udviklingen af deres overordentlig profitable forretningsmodel.[kilde mangler]

  1. ^ I nyere tid er faktorteorien yderligere blevet videreudviklet af psykologerne Raymond B. Cattell (1905-1998) og Howard Gardner (1943- ).
  2. ^ Spearman, C.: "General intelligence objectively determined and measured". American Journal of Psychology, 15, 201–293 (1904)
  3. ^ Året efter Spearman’s påvisning i 1904 af eksistensen af en generel, central g-faktor bag intelligensbegrebet, udgav den franske psykolog Alfred Binet den første operationelt anvendelige intelligenstest, kaldet Binét-Simon Intelligens Test (1905). Binét-Simon testen blev herefter internationalt enerådende til langt op i 1940’erne, indtil den gradvist blev afløst af de amerikanske Wechsler’s Intelligence Scales, baseret på bl.a. den moderne multifaktor teori inden for faktoranalysen.

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search