Planera Motivering Kontrollera

Värdet av statistiska metoder i studien av befolkningen. Förstå statistiska kvalitetsmetoder

Om företaget använder en butiksgolvsstruktur för produktionsledning, då för redovisning av allmän produktion (butik) utgifter är det vanligt att använda kollektiv och distribution konto 25 "Allmänna produktionskostnader". Det registrerar följande utgifter: lön Ingenjörer, anställda, juniorunderhållpersonal; enhetlig social skatt och försäkringspremie till Ryska federationens pensionsfond; för underhåll och reparation industribyggnader och utrustning; för byggnadsavskrivningar workshops; för att säkerställa normala arbetsförhållanden och teknik utan fara; förluster från stillestånd; andra utgifter för underhåll av prisethobbylaboratorier etc.

I debiteringen av konto 25 debiteras lopp inom en månadbutik flyttar från kredit av material, avräkning och andra konton i korrespondens med kredit på konto 10 "Material", konto 70 "Raspar med personal på ersättning ”, konto 69” Uppgörelser för socialförsäkring och trygghet ", Konto 71" Uppgörelser med ansvariga personer ", konto 60" Ras par med leverantörer och entreprenörer ”och andra.

Allmänna produktionskostnader för varje verkstad i slutet avnätter är indelade i två huvudgrupper: underavdelningar och produkter. I detta fall bör de viktigaste distributionsfunktionerna beaktas:

1) insamling av kostnadsinformation från ansvarscentraler (strukturella indelningar (verkstad, produktionsanläggning, brigad), som samlar information om kostnaderna för förvärv av tillgångar och kostnader);

2) fördelning av kostnader (fördelning av kostnader är en process avminskning av kostnaderna för ett specifikt kostnadsobjekt) med specifikt objekt (organisationsenhet eller produkt tion);

3) säkerställa objektiv planering, ransonering, kostnadsprognos, redovisning och analys av möjliga avvikelser;

4) bestämning av resultat av aktiviteten hos strukturella divisionerdivisioner i företaget för att minska produktionskostnaderna;

5) identifiering av reserver för kostnadsminskning för varje grupp: division, produkter.

Om ett företag producerar flera typer av produkter, då vid beräkning av kostnaden för varje typ av produkt uppstår för att tilldela produktionskostnaderna till slutet en viss typ av produkt. Traditionella metoder distribution För det första tillhandahålla distribution av produktion till koncessionskostnader per produktionsavdelning ochproduktion (hjälp- och serviceavsnitt niyam), och sedan efter produkt. Distributionsförfarande för investeringskostnader utförs baserat på det valdadistributionsbaseroch metoden för löpande redovisning av omkostnader.

___________________________________________________________________________________________

Grund för distribution av allmänna produktionskostnader - som visar tel, som närmast korrelerar de allmänna indirekta produktionskostnaderna med volymen färdiga varor.

I traditionella kostnadsfördelningssystem är det vanligastefaktorer som ska övervakas är: antalet arbetade arbetstimmarugglor, timlön, mängden upplupna löner produktionsarbetares löner (det bör noteras att med en ökning av automatisering av produktionen, det minskar betydelsen av direkta kostnader för grundarbetarnas löner), antalet maskintimmar - processens varaktighet (i proautomatiseringsprocessen, återspeglar dessa faktorer bättre ackumuleringsschematoverheadkostnader), funktioner i teknikparametrar frånberedning av produkter etc.

Valet av distributionsbasen utförs av redovisningsanalysenteak. Till exempel om lönerna för produktionsarbetare nysning tar en större andel av produktionskostnaderna, då kan den fungera som en distributionsfaktor eller produktion produkten är materialintensiv, distributionsfaktorn kan fungera som kostnaden för grundmaterial. Detta är en mycket viktig fråga, eftersom dess beslut påverkar kostnaden. ryggrad av produkter, därför, när man väljer en distributionsbas, bör man överväga ekonomisk mening faktor, styrs avhåller sektorn riktlinjer för redovisning, plning och beräkna kostnaden, ta hänsyn till special produktion och kommersiell verksamhet företag.

Grunden för kostnadsfördelning hålls vanligtvis oförändrad.nej länge, eftersom det är en del av företagets redovisningsprincip.

Produktallokeringsprocess sker i flera steg:

1) För det första fördelas overheadkostnaderna mellan verkstäder - getingfördelning av kostnader för produktionsindelningaroch icke-produktion (servering) enligt det valda fördelningsfaktor. Till exempel om faktorn beaktas "Uppvärmning med naturgas", sedan fördelas kostnadernadet är proportionellt mot volymen av de uppvärmda lokalerna;

2) overheadkostnader för distribution av tjänsterdividerat med produktionsavdelning med hänsyn till faktorvolymentjänster "som konsumeras av huvudavdelningarna;

3) totala omkostnader för huvudproduktionentomter tilldelas beställningar som går igenom dettaverkstad, då - efter produkttyp. Dessutom i varje produktionMilitärenheten kan använda sin egen allokeringsfaktor.

Overheadkostnader återspeglas i särskilda uttalanden, som låter dig analysera typerna av kostnader och jämföra medplanerade kostnader.

För att fördela kostnader till icke-produktion undersektionermellan produktionsenheter oftast följande metoder används:

- direkt kostnadsfördelning (tillämpas om den inte är tillverkadförvaltningsenheter tillhandahåller inte varandra tjänster);

- sekventiell eller steg-för-steg-distribution (är används om icke-produktionsenheter tillhandahåller tjänster till varandra i ensidigt);

- bilateral eller ömsesidig distribution (används om mellan icke-produktionsenheter till aär tvåvägs sammankopplingar).

_______________________________________________________________________________________

Direkt distributionsmetod.

Kostnaderna för varje serviceenhet är relativa skickas direkt till produktionsanläggningarna. Distributionskostnaderär proportionella mot den valda distributionsbasen (t.ex. mått, måste produktionsenhetens förbrukningsprocentäng från icke-produktionsenhet). Denna bas bevaras oförändrad över en lång period, vilket borde vara från i organisationens redovisningsprincip.

__________________________________________________________________________________________

Metoden för sekventiell, eller steg-för-steg, distribution.

Den allmänna principen för kostnadsfördelning är följande:

1) kostnader bestäms för varje icke-produktion division;

2) distributionsbasen väljs (för garaget - bilsträcka transport, för laboratoriet - antalet utförda analyser etc.);

3) fördela kostnader till underavsnitt utan produktionmellan produktionsenheter:

men) kostnaderna för en icke-produktionsenhet som tillhandahåller tjänster till andra icke-produktionsenheter fördelas ensidigt mellan dem proportionellt den valda distributionsbasen, varefter de inte beaktas i den fortsatta distributionsprocessen;

b) kostnader för de återstående icke-produktionsenheterna försedan fördelad på huvudproduktionen divisioner, medan produktionsenhet, konsumerar de flesta tjänster av icke-produktion underdivision, proportionellt hänförlig till större delen för utgifter för denna enhet.

____________________________________________________________________________________________

Metoden för tvåvägs eller ömsesidig distribution.

Kostnadsfördelning utförs i etapper:

1) en indikator väljs som fungerar som en bas för distributionenlatskap (till exempel direkta kostnader);

2) förhållandena mellan segmenten beräknas,i fördelningen av kostnader;

3) kostnaderna för icke-produktionens underavsnitt beräknasniy, justerat för tvåvägskonsumtion tjänster;

Justerade kostnader fördelas mellan centrummitt ansvar

De beskrivs tillräckligt detaljerat i den inhemska litteraturen. I praktiken Ryska företag under tiden används bara några av dem. Tänk vidare på några metoder för statistisk bearbetning.

Allmän information

I praktiken av inhemska företag, främst statistiska kontrollmetoder... Om vi ​​pratar om reglering av den tekniska processen, noteras det extremt sällan. Tillämpning av statistiska metoder föreskriver att en grupp specialister som har lämpliga kvalifikationer bildas vid företaget.

Menande

Enligt ISO ser. 9000 måste leverantören bestämma behovet av statistiska metoder som tillämpas i design-, reglerings- och valideringsprocessen. produktionsprocess och produktegenskaper. Teknikerna som används är baserade på sannolikhetsteorin och matematiska beräkningar. Statistiska metoder för dataanalys kan genomföras när som helst livscykel Produkter. De ger en bedömning och övervägande av produktens heterogenitet eller dess variabilitet i förhållande till de fastställda värdena eller erforderliga värdena, liksom variationen i processen för skapandet. Statistiska metoder är metoder med vilka det med en viss noggrannhet och tillförlitlighet är möjligt att bedöma tillståndet för de fenomen som undersöks. De gör det möjligt att förutsäga vissa problem, att utveckla optimala lösningar baserat på den studerade faktainformation, trender och mönster.

Bruksanvisning

De viktigaste områdena som är utbredda statistiska metoder är:


Utveckling av utvecklade länder

Statistiska metoder är bas, säkerställer skapandet av produkter med höga konsumentegenskaper. Dessa tekniker används i stor utsträckning i industrialiserade länder. Statistiska metoder är i själva verket garantier för att konsumenter får produkter som uppfyller de fastställda kraven. Effekten av deras användning bevisas genom praxis. industriföretag Japan. Det var de som bidrog till att uppnå den högsta produktionsnivån i detta land. År av erfarenhet utlandet visar hur effektiva dessa tekniker är. I synnerhet är det känt att Hewlelt Packard -företaget, med hjälp av statistiska metoder, i ett av fallen kunde minska antalet fel per månad från 9 000 till 45 enheter.

Svårigheter att genomföra

I hemlig praxis finns det ett antal hinder som förhindrar användning av statistiska forskningsmetoder indikatorer. Svårigheter uppstår på grund av:


Programutveckling

Det måste sägas att bestämningen av behovet av vissa statistiska metoder inom kvalitet, att välja, behärska specifika tekniker är ett ganska svårt och långvarigt arbete för alla inhemska företag. För ett effektivt genomförande är det lämpligt att utveckla ett särskilt långsiktigt program. Den bör föreskriva bildandet av en tjänst vars uppgifter kommer att innefatta organisation och metodisk vägledning för tillämpningen av statistiska metoder. Inom ramen för programmet är det nödvändigt att tillhandahålla lämplig utrustning tekniska medel, utbildning av specialister, för att bestämma sammansättningen av produktionsuppgifter som bör lösas med hjälp av de valda teknikerna. Det rekommenderas att börja behärska med de enklaste metoderna. Till exempel kan du använda känd elementär tillverkning. Därefter är det lämpligt att gå vidare till andra tekniker. Det kan till exempel vara variansanalys, selektiv behandling av information, reglering av processer, planering av faktorforskning och experiment, etc.

Klassificering

Statistiska metoder för ekonomisk analys inkluderar olika knep. Det är värt att säga att det finns ganska många av dem. K. Ishikawa, en ledande expert på kvalitetsledning i Japan, rekommenderar dock att man använder sju grundläggande metoder:

  1. Pareto -diagram.
  2. Gruppering av information efter gemensamma egenskaper.
  3. Kontrollscheman.
  4. Orsaksscheman.
  5. Histogram.
  6. Checklistor.
  7. Spridningsdiagram.

Baserat på sin egen erfarenhet inom management, hävdar Ishikawa att 95% av alla problem och problem i företaget kan lösas med hjälp av dessa sju metoder.

Pareto -diagram

Den här är baserad på ett visst förhållande. Det har kallats "Pareto -principen". Enligt honom visas 80% av effekterna av 20% av orsakerna. i en visuell och begriplig form visar det relativa inflytandet av varje omständighet på vanligt problem i fallande ordning. Denna inverkan kan undersökas på antalet förluster, defekter som orsakas av varje orsak. Det relativa inflytandet illustreras med hjälp av staplar, faktorernas ackumulerade påverkan av den kumulativa linjen.

Orsaksschema

På det är problemet som studeras konventionellt avbildat i form av en horisontell rak pil, och de förhållanden och faktorer som indirekt eller direkt påverkar det - i form av sneda. Vid konstruktion bör även till synes obetydliga omständigheter beaktas. Detta beror på att det i praktiken ganska ofta finns fall där lösningen av problemet säkerställs genom att utesluta flera till synes obetydliga faktorer. Orsakerna som påverkar de viktigaste omständigheterna (för de första och efterföljande orderna) visas på diagrammet med horisontella korta pilar. Det detaljerade diagrammet kommer att vara i form av ett fiskskelett.

Gruppera information

Detta ekonomisk-statistisk metod används för att beställa uppsättningen indikatorer som erhölls vid utvärdering och mätning av en eller flera parametrar för ett objekt. Vanligtvis presenteras denna information i form av en oordnad sekvens av värden. Dessa kan vara arbetsstyckets linjära dimensioner, smältpunkten, materialets hårdhet, antalet defekter och så vidare. På grundval av ett sådant system är det svårt att dra slutsatser om produktens egenskaper eller processerna för dess skapande. Beställningen görs med hjälp av linjediagram. De visar tydligt förändringarna i de observerade parametrarna under en viss period.

Checklista

Som regel presenteras den i form av en tabell med frekvensfördelning av förekomsten av de uppmätta värdena för objektparametrarna i motsvarande intervall. Checklistor upprättas beroende på studiens mål. Värdeintervallet för indikatorerna är indelat i lika stora intervall. Deras antal väljs vanligtvis lika med kvadratroten av antalet mätningar som utförs. Formuläret ska vara enkelt för att undvika problem när du fyller i, läser, kontrollerar.

stapeldiagram

Det presenteras i form av en stegad polygon. Det illustrerar tydligt fördelningen av mätvärden. Intervallet för fastställda värden är uppdelat i lika stora intervall, som ritas längs abscissaxeln. En rektangel ritas för varje intervall. Dess höjd är lika med frekvensen för förekomsten av värdet i det angivna intervallet.

Spridningsdiagram

De används för att testa hypotesen om sambandet mellan två variabler. Modellen är konstruerad enligt följande. På abscissaxeln är värdet på en parameter ritat, ordinat - för en annan indikator. Som ett resultat visas en punkt på diagrammet. Dessa steg upprepas för alla värden för variablerna. I närvaro av en relation är korrelationsfältet långsträckt, och riktningen kommer inte att sammanfalla med riktningsaxeln för ordinataxeln. Om det inte finns någon begränsning är den parallell med en av axlarna eller kommer att ha formen av en cirkel.

Kontrollscheman

De används för att utvärdera en process under en viss period. Utformning av kontrolldiagram baseras på följande bestämmelser:

  1. Alla processer avviker från de angivna parametrarna över tid.
  2. Fenomenets instabila gång förändras inte av en slump. Avvikelser som går utöver de förväntade gränserna är inte av misstag.
  3. Individuella förändringar kan förutses.
  4. En stabil process kan ibland avvika inom de avsedda gränserna.

Användning i praktiken för ryska företag

Det ska sägas att inhemska och utlandserfarenhet visar att den mest effektiva statistiska metoden för att bedöma stabilitet och noggrannhet hos utrustning och tekniska processerär upprättandet av kontrolldiagram. Denna metod används också vid reglering av produktionskapacitetskapacitet. När du bygger kartor är det nödvändigt att korrekt välja parametern som studeras. Det rekommenderas att ge företräde åt de indikatorer som är direkt relaterade till produktens syfte, som enkelt kan mätas och som kan påverkas av regleringen av processen. Om ett sådant val är svårt eller inte motiverat kan du utvärdera de värden som är korrelerade (sammankopplade) med den kontrollerade parametern.

Nyanser

Om det är ekonomiskt eller tekniskt omöjligt att mäta indikatorer med den noggrannhet som krävs för mappning med ett kvantitativt kriterium, används en alternativ indikator. Tillhörande är begrepp som "äktenskap" och "defekt". Det senare uppfattas som varje separat bristande överensstämmelse av produkten med de fastställda kraven. En defekt är en produkt som inte är tillåten att tillhandahålla konsumenterna på grund av förekomsten av defekter i den.

Särdrag

Varje typ av kort har sina egna detaljer. Det måste beaktas när du väljer dem för ett visst fall. Kvantitativa kartor anses vara mer känsliga för processändringar än de som använder ett alternativt attribut. De förra är dock mer mödosamma. De används för:

  1. Debug processen.
  2. Bedömning av möjligheterna till teknikimplementering.
  3. Kontrollera utrustningens noggrannhet.
  4. Definitioner av toleranser.
  5. Kartläggningar av flera giltiga sätt att skapa en produkt.

Dessutom

Om processstörningen skiljer sig från förskjutningen av den övervakade parametern är det nödvändigt att använda X-kort. Om det finns en ökning av spridningen av värden bör R- eller S-modellen väljas. Det är dock nödvändigt att ta hänsyn till ett antal särdrag. I synnerhet kommer användningen av S-kartor att göra det möjligt att mer exakt och snabbt fastställa processstörningen än R-modeller med samma. Men konstruktionen av den senare kräver inte komplexa beräkningar.

Slutsats

Inom ekonomi är det möjligt att undersöka de faktorer som finns under en kvalitativ bedömning, i rymden och dynamiken. Med deras hjälp kan du utföra prediktiva beräkningar. Till statistiska metoder ekonomisk analys inkluderar inte metoder för att bedöma orsak-och-effekt-samband mellan ekonomiska processer och händelser, identifiera lovande och oanvända reserver för att öka effektiviteten i aktiviteter. Med andra ord ingår inte faktorteknik i antalet överväganden.

Yerlan Askarov, docent KazNTU uppkallad efter K. Satpayeva


Statistiska metoder spelar en viktig roll i den objektiva bedömningen av processens kvantitativa och kvalitativa egenskaper och är en av de väsentliga element produktkvalitetssäkringssystem och hela kvalitetshanteringsprocessen. Det är ingen slump att grundaren av den moderna teorin om kvalitetsledning, E. Deming, arbetade i många år på Bureau of the Population Census och behandlade frågor om statistisk databehandling. Han lade stor vikt vid statistiska metoder.

För att erhålla högkvalitativa produkter är det nödvändigt att känna till den existerande utrustningens verkliga noggrannhet, för att avgöra korrespondensen mellan den valda tekniska processens noggrannhet med produktens givna noggrannhet och att utvärdera stabiliteten i den tekniska processen. Lösningen av problem av denna typ utförs huvudsakligen genom matematisk bearbetning av empirisk data erhållen genom upprepade mätningar av antingen produkternas faktiska dimensioner, eller bearbetningsfel eller mätfel.

Det finns två kategorier av fel: systematiska och slumpmässiga. Som ett resultat av direkta observationer, mätningar eller registrering av fakta erhålls mycket data som bildar en statistisk population och behöver bearbetas, inklusive systematisering och klassificering, beräkning av parametrar som kännetecknar denna samling, sammanställning av tabeller, grafer som illustrerar processen.

I praktiken används ett begränsat antal numeriska egenskaper, så kallade distributionsparametrar.

Grupperingscenter... En av de huvudsakliga egenskaperna hos en statistisk befolkning, som ger en uppfattning om centrum kring vilket alla värden är grupperade, är det aritmetiska medelvärdet. Det bestäms av uttrycket:

där Xmax, Xmin är max och minimivärde statistisk befolkning.

Variationsintervallet är inte alltid typiskt, eftersom det bara tar hänsyn till extrema värden, som kan skilja sig mycket från alla andra värden. Mer exakt bestäms spridningen med hjälp av indikatorer som tar hänsyn till avvikelsen av alla värden från det aritmetiska medelvärdet. Huvuddelen av dessa indikatorer är standardavvikelsen för observationsresultatet, som bestäms av formeln

Sannolikhetsfördelningens form. För att karakterisera fördelningens form används vanligtvis den matematiska modellen som bäst närmar sig formen på sannolikhetsfördelningskurvan som erhålls genom att analysera de experimentellt erhållna data.

Normal distributionslag. De flesta slumpmässiga fenomen som förekommer i livet, i synnerhet inom produktion och vetenskaplig forskning, kännetecknas av närvaron av ett stort antal slumpmässiga faktorer, beskrivna av lagen om normalfördelning, vilket är grundläggande i många praktiska studier. En normalfördelning är dock inte den enda möjliga. Beroende på slumpmässiga variabler fysiska kan vissa av dem i praktiken ha en annan typ av distribution, till exempel logaritmisk, exponentiell, Weibull, Simpson, Rayleigh, lika sannolikhet, etc.

Ekvationen som beskriver sannolikhetstätheten för normalfördelningen har formen:


(5)

Normalfördelningen kännetecknas av två parametrar μ och σ 2 och på grafen är det en symmetrisk gaussisk kurva (figur 1), som har ett maximum vid den punkt som motsvarar värdet X = μ (motsvarar det aritmetiska medelvärdet X cf och kallas grupperingscentrum), och när X → -∞ och X → ∞ närmar sig asymptotiskt abscissaxeln. Böjningspunkten för kurvan är på ett avstånd σ från mitten av platsen för μ. Med minskande σ sträcks kurvan längs ordinatorn och komprimeras längs abscissen. Mellan abscisserna μ - σ och μ + σ finns 68,3% av hela arean av normalfördelningskurvan. Det betyder att med en normal fördelning avviker 68,3% av alla uppmätta enheter från medelvärdet med högst σ, det vill säga att de alla ligger inom intervallet + σ. Området inneslutet mellan ordinat ritade på ett avstånd av 2σ på båda sidor om mitten är 95,4% och följaktligen är samma antal befolkningsenheter inom μ + 2σ. Slutligen är 99,73% av alla enheter inom μ + 3σ. Detta är den så kallade "tre sigma" -regeln, karakteristisk för normalfördelningen. Enligt denna regel är högst 0,27% av alla kvantitetsvärden utanför 3σ -avvikelsen, det vill säga 27 realisationer per 10 tusen. I tekniska tillämpningar, vid utvärdering av mätresultat, är det vanligt att arbeta med z -koefficienter vid σ motsvarande 90%, 95%, 99%, 99,9%av sannolikheten för att resultatet kommer att falla inom toleransområdet.


Bild 1

Z90 = 1,65; Z95 = 1,96; Z99 = 2,576; Z999 = 3,291.

Det bör noteras att samma regel gäller för avvikelser av medelvärdet X cf (?). Det fluktuerar också i ett visst område med tre värden för standardavvikelsen för medelvärdet S i båda riktningarna, och detta område innehåller 99,73% av alla medelvärden. Normalfördelningen manifesterar sig väl med ett stort antal medlemmar i den statistiska befolkningen, minst 30.

Elevens fördelning. För praktiken är det av stort intresse att kunna bedöma fördelningen av slumpmässiga variabler och bestämma produktionsfel i alla tillverkade produkter och fel i vetenskapliga experiment baserat på resultaten av mätning av parametrarna för en statistisk population som erhållits från en sats med liten volym . Denna teknik utvecklades av Karl Gosset 1908 och publicerades under pseudonymen Student.

Studentens t -fördelning är symmetrisk, men mer utplattad än den normala fördelningskurvan, och därför långsträckt i ändarna (figur 2). Varje värde på n har sin egen t-funktion och sin egen distribution. Koefficienten z ersätts i elevens fördelning med koefficienten t, vars värde beror på en given betydelse, som avgör hur mycket av förverkligandet som kan ligga utanför det valda området i elevens distributionskurva och antalet produkter i provet.


Bild 2

För stora n elevens t -fördelning närmar sig asymptotiskt den normala normalfördelningen. Med en noggrannhet som är acceptabel för övning kan vi anta att för n? 30, Studentens t -distribution, ibland kallad t-fördelning, approximerad av normal.

t-distribution har samma parametrar som normalt. Detta är det aritmetiska medelvärdet Xav, standardavvikelsen ? och standardavvikelsen för medelvärdet S. Xav bestäms av formeln (1), S bestäms av formeln (4), och ? enligt formeln:


(6)

Noggrannhetskontroll. När fördelningen av en slumpmässig variabel är känd kan alla egenskaper hos en given produktsats erhållas, medelvärdet, variansen etc. kan bestämmas. Men den fullständiga uppsättningen statistiska data för ett parti industriprodukter, vilket innebär lagen om sannolikhetsfördelning, kan bara kännas efter tillverkningen av hela produktpartiet. I praktiken är distributionslagen för hela produktsatsen nästan alltid okänd; den enda informationskällan är provet, vanligtvis ett litet urval. Varje numerisk egenskap beräknad utifrån provdata, till exempel det aritmetiska medelvärdet eller variansen, är en realisering av en slumpmässig variabel, som kan ta på sig olika värden från prov till prov. Kontrolluppgiften underlättas på grund av att det vanligtvis inte krävs att veta det exakta värdet på skillnaden mellan slumpmässiga värden och ett givet värde. Det räcker bara att veta om de observerade värdena skiljer sig mer än mängden tillåtet fel, som bestäms av toleransvärdet. Utökningen till den allmänna befolkningen av uppskattningar gjorda på grundval av provdata kan endast utföras med en viss sannolikhet P (t). Således är en bedömning om den allmänna befolkningens egenskaper alltid sannolikhetsartad och innehåller ett element av risk. Eftersom slutsatsen görs på exempeldata, det vill säga med en begränsad mängd information, kan fel av den första och andra typen uppstå.

Sannolikheten att göra ett fel av det första slaget kallas signifikansnivån och betecknas med men... Område som motsvarar sannolikhet men, kallas kritisk, och regionen komplementär till den, sannolikheten för att komma in är lika med 1-a, kallas tillåtet.

Sannolikheten för ett typ II -fel anges ? och mängden 1-? kallas kriteriets makt.

Kvantiteten men kallas ibland tillverkarens risk och värdet ? kallas konsumentrisk.

Med sannolikhet 1-a det okända värdet X 0 för hela populationen ligger i intervallet

(Xsr - Z?)< Х 0 < (Хср + Z?) для нормального распределения,

(Xsr - t?)< Х 0 < (Хср + t?) для распределения Стьюдента.

De begränsande extrema värdena för X 0 kallas konfidensgränser.

Med en minskning av urvalsstorleken med studentens fördelning expanderar konfidensgränserna och sannolikheten för fel ökar. Inställning av till exempel en signifikansnivå på 5% (a = 0,05) anses att med en sannolikhet på 95% (P = 0,95) är det okända värdet X 0 i intervallet

(Хср - t?,:., +ср + t?)

Med andra ord kommer den nödvändiga noggrannheten att vara lika med Xav + t ?, och antalet delar med en storlek utanför denna tolerans kommer inte att vara mer än 5%.

Processstabilitetskontroll. I verkliga produktionsförhållanden ändras de faktiska värdena för parametrarna för den tekniska processen och egenskaperna hos de tillverkade produkterna inte bara kaotiskt på grund av slumpmässiga fel, utan avviker ofta gradvis och monotont från de angivna värdena över tid, det vill säga , systematiska fel uppstår. Dessa fel måste elimineras genom att identifiera och eliminera orsakerna som orsakar dem. Problemet är att under verkliga förhållanden är det svårt att skilja systematiska fel från slumpmässiga. Mindre systematiska fel utan särskild statistisk analys kan under lång tid gå obemärkt förbi slumpmässiga fel.

Analysen bygger på det faktum att när det inte finns några systematiska fel, ändras parametrarnas faktiska värden slumpmässigt. Men deras medelvärden och grundfel förblir oförändrade över tiden. I detta fall kallas den tekniska processen stabil. Det anses konventionellt att alla produkter i en given sats är desamma. I en stabil process följer slumpmässiga fel normalfördelningslagen med centrum μ = Xo. Medelvärdena för parametrarna som erhålls i olika satser bör vara ungefär lika med Xo. Följaktligen är de alla ungefär lika med varandra, men värdet av det nuvarande genomsnittliga värdet Xavt varierar i konfidensintervallet + tS, det vill säga:

(Хср - tS) ≤ Хсрт ≤ (+ср + tS) (7)

Materialet för analys av stabilitet kan vara samma data som användes för att kontrollera noggrannheten. Men de kommer bara att vara användbara om de representerar kontinuerliga observationer som täcker en tillräckligt lång tid, eller om de består av prover, valda med jämna mellanrum. Intervallen mellan proverna, som i detta fall kallas prover, ställs in beroende på den observerade frekvensen av utrustningsstörningar.

Vid en given signifikansnivå kan medelvärdet för Xavr i olika aktuella satser inte skilja sig mer än tS från bas Xav, erhållet för den första mätningen, det vill säga

/ Хср - Хсрт / ≤ tS (8)

Om detta villkor är uppfyllt kan vi anta att processen är stabil och att båda satserna släpptes under samma förhållanden. Om skillnaden mellan medelvärdena i två satser överstiger värdet av tS, kan det inte längre anses att denna skillnad endast orsakas av slumpmässiga skäl. I processen uppträdde en dominerande konstant faktor, som ändrar värdena på parametrarna för produkter i en sats enligt en viss konstant lag. Processen är instabil och produkter som tillverkas vid olika tidpunkter kommer att skilja sig väsentligt från varandra, och denna skillnad kommer att öka med tiden.

Avvikelsen mellan medelvärdena i olika partier med mer än tS indikerar således förekomsten av systematiska fel och behovet av att vidta åtgärder för att upptäcka dem och eliminera orsakerna som orsakar dem. Denna princip tillämpades av V. Schuhart vid utvecklingen av kontrolldiagram.

Statistiska metoder för stabilitetsanalys kan också tillämpas i situationer som är motsatta av dem som diskuterats ovan. Om några ändringar görs i produktens design eller den tekniska processen för tillverkning, måste det avgöras i vilken utsträckning detta kommer att leda till förväntade resultat.

Följaktligen är det nödvändigt att genomföra tester, göra flera prover och statistiskt bearbeta data. Om

/Хср.ст.-Хср.nov ./> tS, (9)

Sju enklaste metoder för statistisk processforskning

Moderna statistiska metoder är ganska svåra för uppfattning och utbredd praktisk användning utan fördjupad matematisk utbildning av alla deltagare i processen. År 1979 hade Japanese Scientists and Engineers Union (JUSE) sammanfört sju ganska lättanvända metoder för visuell processanalys. För all sin enkelhet upprätthåller de en koppling till statistik och ger proffs möjlighet att använda sina resultat och, om det behövs, förbättra dem.

Ishikawas orsaksschema. Detta diagram är ett mycket kraftfullt verktyg för att analysera situationen, få information och påverkan av olika faktorer på huvudprocessen. Här blir det möjligt att inte bara identifiera de faktorer som påverkar processen, utan också att bestämma prioriteten för deras inflytande.


Figur 3

Diagrammet för typ 5M betraktar sådana kvalitetskomponenter som "människor", "utrustning", "material, råvaror", "teknik", "förvaltning", och i diagrammet av typ 6M läggs komponenten "miljö" till dem (figur 3).

När det gäller problemet med kvalimetrisk analys som löses,
- för "människor" -komponenten är det nödvändigt att fastställa de faktorer som är förknippade med bekvämligheten och säkerheten vid operationer.
- för "utrustning" -komponenten - förhållandet mellan strukturelementen i den analyserade produkten med varandra i samband med utförandet av denna operation;
- för "teknik" -komponenten - faktorer relaterade till prestanda och noggrannhet för den utförda operationen.
- för komponenten "material" - faktorer som är förknippade med frånvaron av förändringar i egenskaperna hos produktens material under processen att utföra denna operation;
- för "teknik" -komponenten - faktorer som är förknippade med tillförlitlig igenkänning av ett fel i processen för att utföra en operation;
- för komponenten ”miljö” - faktorer som är förknippade med miljöpåverkan på produkten och produkten på miljön.

Typer av defekter Kontrolldata Total
Bucklor ///// ///// //// 14
Sprickor ///// ///// ///// // 17
Går ur tolerans i minus ///// // 7
Går utöver antagning plus ///// ///// ///// ///// /// 23
Bränn under värmebehandling ///// //// 9
Snedställda datumytor /// 3
Gjuteri sjunker ///// / 6
Ojämnhet i grovhet ///// ///// ///// /// 18
Målningsfel //// 4
Övrig ///// // 7
Total 108

Figur 4

Checklistor. Checklistor kan användas både för kvalitetskontroll och för kvantitativ kontroll; detta dokument fixar vissa typer av defekter under en viss tidsperiod. Checklistan är ett bra statistiskt material för vidare analys och studier av produktionsproblem och för att minska defektnivån (figur 4).

Pareto -analys. Pareto-analys får sitt namn från den italienska ekonomen Vilfredo Pareto (1848-1923), som visade att det mesta av kapitalet (80%) är i händerna på ett litet antal människor (20%). Pareto utvecklade logaritmiska matematiska modeller som beskriver denna inhomogena fördelning, och matematikern M.O. Lorenz gav grafiska illustrationer, särskilt den kumulativa kurvan.

Pareto -regeln är en ”universell” princip som kan tillämpas i olika situationer och utan tvekan för att lösa kvalitetsproblem. D. Juran noterade den "universella" tillämpningen av Pareto -principen på alla grupper av orsaker som orsakar en särskild konsekvens, och de flesta konsekvenserna orsakas av ett fåtal skäl. Pareto -analys rankar enskilda områden efter relevans eller betydelse och kräver att man först och främst eliminerar de orsaker som orsakar det största antalet problem (inkonsekvenser).

Figur 5

Pareto -analys illustreras som regel av ett Pareto -diagram (figur 5), på vilket orsakerna till kvalitetsproblem är ritade på abscissen i fallande ordning på problemen som orsakas av dem, och på ordinaten - i kvantitativa termer, själva problemen, både i numerisk och ackumulerad (kumulativ) procentandel. Låt oss bygga ett diagram baserat på data från det föregående exemplet - en checklista.

Diagrammet visar tydligt prioriterat åtgärdsområde och beskriver orsakerna som orsakar flest fel. Således bör i första hand förebyggande åtgärder syfta till att lösa just dessa problem. Genom att identifiera och eliminera orsakerna som orsakar det största antalet defekter kan vi spendera minsta mängd resurser (pengar, tid, människor, materiellt stöd) för att få maximal effekt i form av en betydande minskning av antalet defekter.

Skiktning. I grund och botten är skiktning processen att sortera data enligt vissa kriterier eller variabler, vars resultat ofta visas i form av diagram och grafer. Vi kan klassificera en uppsättning data i olika grupper (eller kategorier) med generella egenskaper kallas stratifieringsvariabeln. Det är viktigt att fastställa vilka variabler som ska användas för sortering. Stratifiering är grunden för andra verktyg som Pareto -analys eller scatterplots. Denna kombination av verktyg gör dem mer kraftfulla.

Låt oss ta data från checklistan (Figur 4). Figur 6 visar ett exempel på en defektkällanalys. Alla defekter 108 (100%) klassificerades i 3 kategorier - efter skift, efter arbetare och efter verksamhet. Av analysen av de presenterade uppgifterna framgår tydligt att det största bidraget till förekomsten av defekter görs av skift 2 (54%) och arbetare G (47%), som arbetar i detta skift.

Histogram. Histogram är ett av alternativen för ett stapeldiagram som visar beroende av frekvensen för produkt- eller processkvalitetsparametrar som faller inom ett visst intervall av värden från dessa värden.

Nedan är ett exempel på att rita ett histogram.

För att underlätta beräkningar och konstruktion använder vi det tillämpade dataprogrammet EXCEL. Det är nödvändigt att bestämma intervallet för geometriska dimensioner, till exempel en axels diameter, vars nominella storlek är 10 mm. Mätt 20 axlar, mätdata ges i den första kolumnen A (figur 7). I kolumn B ordnar vi mätningarna i stigande ordning, sedan i cell D7 bestämmer vi storleksintervallet som skillnaden mellan de största och minsta mätvärdena. Vi väljer antalet histogramintervall lika med 8. Bestäm intervallets intervall D. Sedan bestämmer vi parametrarna för intervallerna, detta är det minsta och största inkluderande värdet av den geometriska parametern som ingår i intervallet.

där i är intervallets nummer.

Därefter bestämmer vi antalet träffar för parametervärdena i vart och ett av de 8 intervallerna, varefter vi slutligen bygger histogrammet.


Figur 7

Spridningsdiagram. Scatter -diagram är diagram som låter dig identifiera korrelationen (statistiskt beroende) mellan olika faktorer som påverkar kvalitetsindikatorer. Diagrammet är ritat längs två koordinataxlar, värdet på variabelparametern ritas längs abscissaxeln och det erhållna värdet för den undersökta parametern, som vi har vid tidpunkten för användning av variabelparametern, ritas på ordinataxeln, vid skärningspunkten mellan dessa värden sätter vi en punkt. Efter att ha samlat in ett tillräckligt stort antal sådana punkter kan vi göra en analys och en slutsats.

Låt oss ge ett exempel. Företaget beslutade att genomföra klasser om grunderna i kvalitetsledning. Varje månad genomfördes träning en viss mängd arbetare. I januari utbildades 2 personer, i februari 3 personer osv. Under året ökade antalet utbildade arbetare och nådde 40 i slutet av året. Ledningen instruerade kvalitetsservicen att spåra beroendet av andelen defektfria produkter som presenterades vid första försöket, antalet klagomål som mottogs på anläggningen för produkter från kunder och energiförbrukningen i verkstaden på antalet utbildade arbetare. Kompilerades data från tabell 1 per månad och plottade spridningsdiagram (figur 8, 9, 10). De visar tydligt att andelen defektfrihet ökar, vi har ett direkt korrelationsberoende, antalet klagomål minskar, vi har ett omvänt korrelationsberoende och diagrammen visar tydligt ett tydligt uttalat korrelationsberoende, vilket bestäms av noggrannheten av punkter och deras inställning till någon exakt avgränsad bana, i vårt fall är det en rak linje. Mängden förbrukad el beror inte på antalet utbildade arbetare.

Kontrollscheman. Kontrolldiagram - speciell vy diagram, först föreslagna av W. Schuhart 1924, De återspeglar arten av förändringen i kvalitetsindikatorn över tid, till exempel stabiliteten för att erhålla produktens storlek. I huvudsak visar kontrollscheman stabiliteten i den tekniska processen, det vill säga att hitta medelvärdet för en parameter i korridoren med acceptabla värden, bestående av de övre och nedre toleransgränserna. Data från dessa kartor kan signalera att parametern närmar sig toleransgränsen och det är nödvändigt att vidta proaktiva åtgärder redan innan parametern kommer in i skrotzonen, det vill säga med denna kontrollmetod kan du förhindra att ett skrot uppträder även vid stadiet av dess början.

Det finns 7 huvudtyper av kort.

    Avvikelse för standardavvikelsen för medelvärdet x-S,

    Områdeavvikelser x-R,

    Avvikelser för individuella värden x,

    Fluktuationer i antalet fel C,

    Fluktuationer i antalet defekter per produktenhet u,

    Fluktuationer i antalet defekta produktenheter pn,

    Fluktuationer i andelen defekta produkter s.

Alla kort kan delas in i två grupper. Den första kontrollerar de kvantitativa parametrarna för kvalitet, som är kontinuerliga slumpmässiga variabler - dimensioner, massa, etc. Den andra är för kontroll av alternativa diskreta parametrar av hög kvalitet (om det finns en defekt - det finns ingen defekt).

Tabell 2



Till exempel x-S-kortet. Fluktuationer i det aritmetiska medelvärdet, toleransbandet här är värdet 3S (för normalfördelningen) eller tS (för elevens fördelning), där S är medelavvikelsens standardavvikelse. Mitten av korridoren är det aritmetiska medelvärdet för den första mätningen. Kortets värden är de mest pålitliga och objektiva. Allmän form kontrolldiagrammet visas i figur 11.

Litteratur:

1. Askarov E.S. Kvalitetskontroll. Handledning... Utgåva 2. Almaty, Pro servis, 2007, 256 sid.


Introduktion

En av väsentliga bestämmelser Total Quality Management (TQM) är faktabaserat beslutsfattande. För att förbättra kvaliteten på produkter och processer krävs ett noggrant arbete från företagets personal för att identifiera orsakerna till defekter (avvikelser från dokumentationen) och eliminera dem. För att göra detta är det nödvändigt att organisera en sökning efter fakta som kännetecknar inkonsekvenser, i den överväldigande majoriteten av dessa är statistiska data, utveckla metoder för att analysera och bearbeta data, identifiera de främsta orsakerna till defekter och utveckla åtgärder för att eliminera dem till lägsta kostnad .

Problemen med att samla in, bearbeta och analysera resultat produktionsaktiviteter behandlar matematisk statistik, som inkluderar ett stort antal inte bara välkända metoder, utan också moderna verktyg (som det är på modet de senaste åren att kalla metoder) analys och upptäckt av defekter. Dessa metoder inkluderar korrelations- och regressionsanalyser, statistisk hypotesprovning, faktoranalys, tidsserieanalys, tillförlitlighetsanalys, etc.

Sju enkla metoder har blivit utbredda inom kvalitetshantering (under påverkan av japanska specialister), vars användning inte kräver hög personalutbildning och gör att vi kan täcka analysen av orsakerna till de flesta defekter som uppstår i produktionen. I den här handboken ingår dessa metoder i olika avsnitt, baserat på lämpligheten av deras tillämpning.

Mycket uppmärksamhet ägnas åt den praktiska tillämpningen av matematisk statistik för att lösa specifika produktionsproblem, särskilt när man analyserar processernas kvalitet.

Det bör noteras att med utvecklingen av vetenskapliga kvalitetsledningssystem ökar statistiska metoders roll i kvalitetshantering ständigt. Det var den utbredda användningen av statistiska metoder vid produktion av produkter i de tidiga stadierna av kampen för kvalitet (50 -talet) som gjorde att japanska företag mycket snabbt kunde bli ledare för världsekonomin.

Ryska företags konkurrenskraft kommer också till stor del att bero på omfattningen av personalutbildning i statistiska kvalitetshanteringsmetoder och deras systematiska tillämpning i praktiken.

Förstå statistiska kvalitetsmetoder

Begreppet ”kvalitetsledning” som vetenskap uppstod i slutet av 1800 -talet, med övergången industriell produktion om principerna för arbetsfördelning. Principen om arbetsfördelning krävde en lösning på problemet med utbytbarhet och precision i produktionen. Innan dess, i hantverksmetoden för att tillverka produkter, säkerställa noggrannhet färdig produkt tillverkade enligt prover eller metoder för montering av parningsdelar och sammansättningar. Med tanke på de betydande variationerna i processparametrarna blev det klart att ett kriterium för produkttillverkningens kvalitet behövdes, vilket skulle möjliggöra begränsande dimensionsavvikelser vid massproduktion detaljer.

Som ett sådant kriterium föreslog F. Taylor intervaller som sätter gränserna för parametrarnas avvikelser i form av nedre och övre gränser. Värdefältet för ett sådant intervall började kallas tolerans.

Upprättandet av toleransen ledde till en konfrontation mellan designers och produktionsarbetares intressen: för vissa säkerställde skärpningen av toleransen en ökning av kvaliteten på anslutningen av strukturella element, för andra skapade det svårigheter att skapa tekniska system, som tillhandahåller de nödvändiga värdena för processvariationen. Det är också uppenbart att i närvaro av tillåtna toleransgränser hade tillverkarna ingen motivation att "behålla" produktens parametrar (parametrar) så nära parameterns nominella värde som möjligt, detta ledde till parametervärdena går utöver toleransgränserna.

Samtidigt (början av 20 -talet av förra seklet) var vissa branschspecialister intresserade av om det är möjligt att förutsäga parametern som går utöver toleransgränserna. Och de började inte fokusera på själva faktumet med produktfel, utan på den tekniska processens beteende, vilket resulterar i att detta äktenskap eller parameteravvikelse från den etablerade toleransen uppstår. Som ett resultat av studien av variationen i tekniska processer dök statistiska metoder för processkontroll upp. Grundaren av dessa metoder var V. Shukhart.

Samtidigt stor uppmärksamhetägnades åt utvecklingen av teorin om provtagning av produkter. De första verken inom detta område dök upp i slutet av 1920 -talet i USA; deras författare var G. Dodge, som senare blev en berömd amerikansk forskare.

Sedan starten av statistiska kvalitetskontrollmetoder förstod experter att produktkvalitet bildas som ett resultat av komplexa processer, vars effektivitet påverkas av många väsentliga faktorer och medarbetarfel. För att säkerställa den nödvändiga kvalitetsnivån är det därför nödvändigt att kunna hantera alla påverkande faktorer, bestämma möjliga alternativ för att förverkliga kvalitet, lära sig att förutse det och bedöma behovet av objekt av en viss kvalitet.

Under efterkrigstiden dök nationella kvalitetsstandarder upp i både USA och Europa. Centralt i utvecklingen normativa dokument inom kvalitetsområdet tillhör International Organization for Standardization (ISO). Sedan 90 -talet har idéerna om variationsteorin, statistisk processkontroll (SPC) bemästrat inte bara matematiker, utan också blivit integrerade verktyg för chefer och kvalitetsservicearbetare.

En stor drivkraft för vidareutvecklingen av principerna för kvalitetsledning gavs av den japanska forskaren G. Taguchi. Han föreslog att ta hänsyn till variationerna i produktens egenskaper vid olika utvecklingsstadier, vilket var en revolutionerande idé för kvalitetsledning. För Taguchi var det nödvändigt att fastställa de kombinationer av produkt- och processparametrar som ledde till ett minimum av processvariationer. Dessa processer, som kom att kallas robusta, var resistenta mot variationer i processparternas ingångsparametrar.

De statistiska metoder som används i dagens praxis för företag kan delas in i följande kategorier:

Metoder med hög komplexitet som används av utvecklare av företags- eller processhanteringssystem. Dessa inkluderar metoder för klusteranalys, adaptiv robust statistik, etc.;

Särskilda metoder som används vid utvecklingen av verksamheten teknisk kontroll, planering av industriella experiment, beräkningar för noggrannhet och tillförlitlighet, etc.

Allmänna metoder, för utvecklingen av vilka japanska specialister har gjort ett stort bidrag. Dessa inkluderar "Seven Simple Techniques" (eller "Seven Quality Tools"), som inkluderar checklistor; skiktningsmetod; grafik; Pareto -diagram; Ishikawa -diagram; histogram; kontrolldiagram.

För närvarande finns det en omfattande litteratur om statistiska metoder och paket med tillämpade datorprogram, om utvecklingen av vilka inhemska vetenskapliga skolor på sannolikhetsteorin intar en ledande plats i världen.

Av de befintliga statistiska metoderna är de vanligaste:

1) beskrivande statistik;

2) planera experiment;

3) hypotesprovning;

4) regressionsanalys;

5) korrelationsanalys;

6) selektiv kontroll;

7) faktoranalys;

8) tidsserieanalys;

9) statistisk uppställning av antagningen;

10) analys av mätnoggrannhet;

11) statistisk kontroll av processer;

12) statistisk reglering av processer;

13) analys av tillförlitlighet;

14) analys av orsakerna till avvikelser;

15) analys av processfunktioner (histogram).

Tabell 1 visar användningsområdena för statistiska metoder. Kolumnnamnen motsvarar numret på den statistiska metod som anges ovan.

Tabell 1 Statistiska metoder som används vid kvalitetskontroll

Den bokstavliga indexeringen av strängar motsvarar följande delar av kvalitetssystemet enligt ISO 9001-94-standarden:

A - ledningens ansvar;

B - kontraktsanalys;

B - design;

D - inköp;

D - produktidentifiering och spårbarhet;

E - processkontroll;

W - kontroll och testning;

З - kontroll-, mät- och testutrustning;

OCH - åtgärder med avvikande produkter;

K - dataregistrering;

L - interna kontroller kvalitet;

M - träning.

Statistiska metoder (metoder baserade på användning av matematisk statistik) är ett effektivt verktyg för att samla in och analysera kvalitetsinformation. Användningen av dessa metoder kräver inte stora kostnader och tillåter, med en viss grad av noggrannhet och tillförlitlighet, att bedöma tillståndet för de studerade fenomenen (objekt, processer) i kvalitetssystemet, att förutsäga och reglera problem i alla stadier av produktens livscykel och, på grundval av detta, att utvecklas optimalt ledningsbeslut... Behovet av statistiska metoder uppstår först och främst i samband med behovet av att minimera variationen i processer. Variabilitet är inneboende i praktiskt taget alla områden av kvalitetssäkring. Det är dock mest typiskt för processer, eftersom de innehåller många källor till variation.

Ett av de viktigaste stadierna i psykologisk forskning är en kvantitativ och meningsfull analys av de erhållna resultaten. En meningsfull analys av forskningsresultaten är den mest betydelsefulla, komplexa och kreativt stadium... Användningen av statistik inom psykologi är en nödvändig komponent i processen för databehandling och analys. Han erbjuder bara kvantitativa argument som kräver substantiell underbyggnad och tolkning.

Konventionellt kan alla metoder klassificeras på grundval av gemensamhet i tre huvudgrupper: grafiska metoder, metoder för analys av statistiska aggregat och ekonomiska och matematiska metoder.

Grafiska metoder baserat på användning av grafiska verktyg för att analysera statistiska data. Denna grupp kan inkludera metoder som en checklista, Pareto -diagram, Ishikawa -diagram, histogram, spridningsdiagram, stratifiering, kontrolldiagram, tidsseriediagram, etc. Dessa metoder kräver inte komplexa beräkningar, kan användas både oberoende och i komplex med andra metoder. Att bemästra dem är inte bara svårt för ingenjörer och tekniker, utan också för arbetare. Det är dock väldigt effektiva metoder... Det är inte för ingenting som de hittar den bredaste applikationen i industrin, särskilt i arbetet med kvalitetsgrupper.

Metoder för att analysera statistiska populationer tjäna till forskningsinformation när förändringen i den analyserade parametern är slumpmässig. De huvudsakliga metoderna som ingår i denna grupp är: regressiva, varians- och faktoriala analystyper, metod för att jämföra medel, metod för att jämföra avvikelser etc. Dessa metoder tillåter: att fastställa beroendet av de studerade fenomenen av slumpmässiga faktorer, båda kvalitativa (analys av varians) och kvantitativ (korrelationsanalys); utforska sambandet mellan slumpmässiga och icke-slumpmässiga värden (regressionsanalys); identifiera enskilda faktorers roll för att ändra den analyserade parametern (faktoranalys), etc.

Ekonomiska och matematiska metoder är en kombination av ekonomiska, matematiska och cybernetiska metoder. Det centrala begreppet för metoderna för denna grupp är optimering, det vill säga processen att hitta bästa alternativet från de många möjliga, med hänsyn till det accepterade kriteriet (kriterium för optimalitet). Strängt taget är ekonomiska och matematiska metoder inte enbart statistiska, men de använder i stor utsträckning apparaten för matematisk statistik, vilket ger anledning att inkludera dem i den övervägda klassificeringen av statistiska metoder. För ändamål relaterade till kvalitetssäkring, från en ganska omfattande grupp ekonomiska och matematiska metoder, bör följande först särskiljas: matematisk programmering (linjär, olinjär, dynamisk); planera ett experiment; simuleringsmodellering: spelteori; köteori; schemaläggningsteori; funktionell kostnadsanalys, etc. Denna grupp kan inkludera både Taguchi -metoder och QFD -metoden (Quality Function Deployment).

Tecken och variabler

Tecken och variabler är mätbara psykologiska fenomen. Sådana fenomen kan vara: tidpunkten för att lösa problemet, antalet misstag som gjorts, graden av ångest, indikatorn för intellektuell labilitet, intensiteten av aggressiva reaktioner, kroppens rotationsvinkel i en konversation, indikatorn för sociometrisk status och många andra variabler.

Begreppen attribut och variabel kan användas omväxlande. De är de vanligaste. Ibland, i stället för dem, används begreppen en indikator eller nivå, till exempel nivån på uthållighet, indikatorn för verbal intelligens, etc., hög nivå intelligens, låg ångest etc.

Psykologiska variabler är slumpmässiga variabler, eftersom det inte är känt i förväg vilket värde de kommer att ta.

De karakteristiska värdena bestäms med hjälp av speciella mätskalor.

Mätskalor Dimension är tilldelning av numeriska former till objekt eller händelser enligt vissa regler. klassificering av typer av mätskalor:

Nominativ skala (namnskala)–Objekt grupperas i olika klasser så att de inom klassen är identiska när det gäller det uppmätta sv-vu.

Ordinarie skala (rang)- tilldela nummer till objekt, beroende på svårighetsgraden av den uppmätta funktionen.

Intervallskala (metrisk) - Detta är ett mått där siffrorna inte bara återspeglar skillnaderna mellan objekt på sv-va: s manifestationsnivå, utan också hur mycket mer eller mindre sv-in uttrycks.

Variabler är något som kan mätas, kontrolleras eller ändras inom forskning. Variabler skiljer sig åt i många aspekter, särskilt den roll de spelar inom forskning, mätskalan, etc.

Oberoende variabler variabler kallas som varieras av forskaren, medan beroende variablerär variabler som mäts eller registreras.

Diskretär en variabel som bara kan ta värden från en viss lista med vissa nummer. Kontinuerlig vi kommer att överväga alla variabler som inte är diskreta.

Kvalitativ- data som registrerar en viss kvalitet som ett objekt har.