Numeeriset ja analyyttiset tutkimukset

Julkaistu 21.11.2019    Kirjoittanut Eero E. Karjalainen  Tilaa RSS


Olemme viime aikoina kuulleet lukuisista parannustoimenpiteiden epäonnistumisista. Hiilidioksidin määrä lisääntyy ja ilmaston lämpeneminen ei ole pysähtynyt, aktiivimalli ei työllistänyt vaikutusarvion mukaisesti, terveyskeskuksia ei saada toimimaan ja jonot pitenevät, huippuasiantuntijoiden työluvat viipyvät jne. Vastaavan ja vielä paljon pidemmän epäonnistuneiden parannusyritysten listan voi esittää jokaisesta yrityksestä. Vain alle 5 % liikkeenjohdon parannusyrityksistä(3) johtaa onnistuneeseen lopputulokseen!

Tilanteen parantamiseksi tarvitaan analyyttisiä tutkimuksia ja niihin perustuvia toimenpiteitä (ei vain rahaa!). Yli 60 % tai jopa yli 90 % kaikista eteen tulevista ongelmista on tulevaisuuteen suuntautuvia analyyttisiä parantamisen ongelmia, joihin numerot ja olemassa oleva informaatio eivät anna suoraan vastausta, ei edes tekoäly. Mistä on kysymys?

Numeeriset ja analyyttiset ongelmat ja tutkimukset

Tri W. Edwards Deming määritteli vuonna 1942(1) eron analyyttisten ja numeeristen ongelmien ja tutkimusten välillä.

"Numeerisen tutkimuksen tavoitteena on arvioida yksiköiden lukumäärä tietyssä rajatussa tilassa, joka kuuluu tiettyyn luokkaan.

Analyyttisen tutkimuksen tavoitteena on luoda perusta toimenpiteelle, joka kohdistuu syy-systeemiin tai prosessiin, jotta tulevaisuuden tuotetta voidaan parantaa."

Numeerinen tutkimus on kuin tutkisi veden laatua lammessa. Lammen vesi muodostaa rajatun tilan. Mitä suurempi vesinäyte (useita havaintoja) lammesta otetaan, sitä parempi kuva lammen vedestä saadaan. Tutkimus on tyypillistä tilastollista kuvaavaa tutkimusta, jota edustavat mm. puoluekannatusta mittaavat gallupit ja tyytyväisyysmittaukset ja niiden yhteydessä keskiarvolle annetut virherajat esim. Merkkiplus.png 2,1 %. Tutkimuksen piirteet ja ominaisuudet on esitetty kuvan taulukossa.

Numeerinen ja analyyttinen.png
Kuva 1. Numeerinen ja analyyttinen ongelma (olosuhde) ja tutkimus(2)

Analyyttinen tutkimus on kuin virta, josta näyte otetaan (kuva ja taulukko). Virta liikkuu ja muuttuu jatkuvasti kuten myös sen ominaisuudet. Vesinäytteen ominaisuudet eivät kuvaa tulevan veden ominaisuutta. Virta tuo uutta vettä. Sama tilanne on puolueiden kannatuksen kehityksessä. Siksi kuukausittain tehdään gallupeja, jotta voidaan tehdä analyyttisiä huomioita ja ennusteita. Tilastolliset numeeriset estimaatit ja virherajat ovat toissijaisia tulevaisuuden kehitykselle. On vaikeaa, jos ei mahdotonta, tehdä ennustetta virran veden laadusta ilman, että ei oteta toistuvasti ajan kuluessa näytteitä. Sama on laita hiilidioksidin ja ilmaston suhteen. Tästä ennusteesta käytetäänkin nimeä uskomus (belief), jolle ei ole numeroarvoa. On vain menetelmiä ja tapoja, jolla uskomuksen astetta saadaan nousemaan.

Analyyttiset menetelmät ja konseptit ovat avainelementtejä Demingin "Syvällisen Tiedon Systeemissä" (System of Profound Knowledge)(3), joka muodostaa parantamisen tieteen (improvement science) eli tiedon siitä, kuinka parannus voidaan luoda, toteuttaa ja siinä onnistua. Syvällinen Tiedon Systeemin tieto muodostuu Demingin mukaan neljästä elementistä: 1. Systeemin ymmärtämisestä, 2. vaihtelun ymmärtämisestä - erityissyyt ja satunnaissyyt, 3. tiedon teoriasta ja 4. psykologiasta. Deming on selittänyt tätä tarkemmin The New Economics -kirjassaan 1993(3).

Numeerinen tutkimus ja laatutekniikka

Numeeristen tutkimusten ja analyysien takana on tilastollinen teoria, jota käytetään kuvaamaan estimaattien tarkkuutta ja hypoteesien pätevyyttä populaatiosta (vertaus lampeen), josta näyte - käsittäen yhden tai useita havaintoja - on otettu. Tilastolliset menetelmät eivät mahdollista populaation ulkopuolella olevien näytteiden virhearviointia.

Laatutekniikassa tätä numeerista analyysiä edustaa erilaiset hyväksymis-hylkäystarkastukset ja mittaukset, eristä otettavat näytteet ja niiden perusteella tehtävät toimenpiteet tyypillisesti jonkin AQL-taulukon mukaisesti (Acceptable Quality Limit), tilastolliset vahvistavat analyysit ja testit CDA (Confirmatory Data Analysis). Tähän joukkoon kuuluu myös Ishikawan vuonna 1985 esittämä ja Leanissa paljon käytetty korjausympyrä PDCA (Plan, Do, Check, Action)(4).

PDCA ja PDSA.png
Kuva 2.
PDCA ja PDSA historia ja kehittyminen/R. Moen(4)

Analyyttinen tutkimus ja laatutekniikka

Analyyttinen tutkimus on ennustava, jossa tilastollinen standardivirhe ei ole tutkittavan kohteen epätarkkuuden kaikkein suurin lähde, koska tulevaisuuden olosuhteet muuttuvat jatkuvasti (vertaus virtaavaan jokeen). Vaikka analyyttisissä tutkimuksissa huomioidaan näytteiden keskiarvovirhe kuten numeerisissa tutkimuksissa, perustellaan tutkimusta ja analyysiä ensisiassa epätarkkuutena, jolla arvioidaan tulevaisuutta (ei siis populaatiota).

Jotta analyyttisten tilastollisten tutkimusten luottamuksen aste olisi korkea, ne suoritetaan niin, että tutkimus kattaa laajat olosuhteet – aika ja ominaisuudet - ja ovat erityisiä syy-seuraus eli kausaalitutkimuksia. Keskeisiä tilastollisia työkaluja ovat hypoteesien luonti, EDA (Exploratory Data Analysis), stabiilisuus ja monimuuttuja analyysit (MA), multifaktori-tutkimukset, kokeen suunnittelu, DoE, Taguchi, faktorianalyysit, regressioanalyysit, aikasarja-analyysit jne. Nämä kaikki ovat ns. advance työkaluja, joista osa on koottu Lean Six Sigman konseptin alle. Toyota käyttää näitä menetelmiä laajasti. Katso artikkeli: Toyota ja Lean – Mikä on Leanin lähestymistapa laatuun.

Laatutekniikassa analyyttistä tutkimusta edustavat mm. erilaiset juurisyy analyysit, SPC, FMEA ja x->y tutkimukset, ongelmanratkaisu, 7 Tools, 8D jne. Tähän joukkoon kuuluu myös Demingin parannusympyrä PDSA (Plan, Do, Study, Action) vuodelta 1950 (kuva 2), joka helposti sekoitetaan Ishikawan korjausympyrään PDCA.

Yhteenveto

Valitettavan usein yhteiskunnan ja yritysten käyttämät parannukseen tähtäävät tutkimukset ja analyysit on toteutettu numeerisilla menetelmillä (reklamaatioiden selvitykset, erilaiset virhe-, toimitusaika- ja laatututkimukset, asiakas- ja työtyytyväisyysmittaukset), jotka johtavat säätämiseen ja sähläykseen. Katso artikkeli: Jatkuva säätäminen – miksi säädämme?.

Ongelmat lisääntyvät, toistuvat ja toistuvat! Aitoa parannusta ei saada aikaan. Ehkä tarkastelukulma olisi siirrettävä analyyttisempaan suuntaan ja menetelmiin, jotta ongelmat ratkeavat.

 

Eero_Sibeliustalo.jpg
Laatuyhdistyksen kunniajäsen
DI Eero E. Karjalainen
eero@qk-karjalainen.fi

 

Lähteet:

  1. W. E. Deming: On the classification f the problems of statistical inference. Journal of the American Statistical Association, 1942
  2. R. Moen, T. Nolan, L. Provost: Quality Improvement trough Planned Experimentation, 2012
  3. W. E. Deming: The New Economics for Industry, Covernment, Education, 1993
  4. Ronald Moen: Foundation and History of the PDSA Cycle, API, 2011
  5. Lloyd P. Provost: Analytical studies: Framework for quality improvement design and analysis; BMJ, 2011

 

Kommentoi

(Sähköpostiosoitettasi ei julkisteta.)
Syötä kuvassa näkyvät kirjaimet ja numerot.
Captcha Code

Klikkaa kuvaa nähdäksesi uuden koodin.

    Tagipilvi

    oeeideointilaatutyökalutstandardointioperaatiotutkimusmittaaminenBlack BeltmixtureparantaminenLaatutyökalutlaatutaulutvalvontainnovaatioBOKPDSATOC5W2H TPSongelmanratkaisulaadunparannusParetoVOCKingmanin yhtälöIATF 16949nollavirheLean Handbookpuhdistaminenlaatu ratkaiseeerityissyyMinitab8DTPMlainalaisuudetEDAhistogrammimuutoksen tuskaBig DatasuorituskykymittaritlaadunkehittäjäMinitab 18kuvaaminenryhmittelykaavioL8-matriisitehdasfysiikkatehollinen aikaISO 9001TQMCTPHall of FamestabiilisuorituskykyaivoriihiWheelerDSDparannusmenetelmäSix SigmavuodiagrammiJuranSPC-korttiohjaussuunnitelmamittaussysteemiJohtaminenennustaminenarvovirta-analyysiSPCShewhartCombanion by MinitabFeigenbaumDesign of ExperimentsOpettaminenlaatuDMAICLittlen lakiryhmätyöskentelyriskinkartoitusläpimenoaikamielenmallitkausaliteettivaihtelun vaikutusTaguchiohjauskorttisitoutuminenlaadunohjauskustannussäästötBody of KnowledgeasiakasDFSSLaatukonferenssijohtamisjärjestelmäJatkuva parantaminenmuutosuutiskirjeISO 9000Lean Six Sigma Black BeltDemonstraatiotShingoKaizentehokkuusreunaLean-visiopalvelu0-virhesatunnaissyyISO 9001:2015tekoälyasiakastyytyväisyys5StoleranssiparannusmalliBalanced ScorecardjitDemingsysteemikairyoluotettava mittauslajittelutäystekijäkoePDSA-ympyräGreen BeltvaihteluValue Stream Mappingdatan käsittelyCDAMarkkinointiIshikawaparannuksen johtaminenFMEAhyväksymisnäytteenottotiedonkerääminenASQlaatu SuomessaOhnoSigmakanbanDesign for Six Sigmamittausprosessidatan luokitteluVSMgurutMSAPDCAmonimuuttujatestit-testiLean Six Sigmakoulutusjaksoaikasekoitekoeriskiprosessikuvausdatan käsittelyparannustoiminnan laithukan muodotparannustoimintaANOVADOEdatan käsittelyarvovirtatoiminnan lainalaisuudetVUTMonte CarloCTQHukkakoesuunnittelutilastollinen päätöksentekoturvallisuustilastomatematiikkasatunnainen vaihteluLean-talotilastoTuottavuustyökalutlaadunhallintamittavirheLaatujärjestelmäAsiakastarveGage R&RprosessidataFactory PhysicsIATFhypoteesitestiMinitab 19syy-seurauskaavioparannustoiminnan kehittyminenROIControl Planohjausdata-analyysipäämäärämallihävikkifunktiojärjestäminenCrosbyTätä on LeankalanruotomalliMarkkinointiprosessihypoteesitestausHarryterveydenhuoltopaloautopelineukkarikoeGagejidokaKingmandatan keräysKataOFATdatan laatumenetelmätToyotaarvovirtakuvausOpetusmenetelmätregressioanalyysiKaikakuDMADVYellow Beltkvantitatiiviset menetelmätasiakastyytyväisyysacceptance samplingLeanmonimuuttujakoeqfdkorrelaatio

    Arkisto