In eerdere artikelen over tolerantieanalyse ben ik ingegaan op het stappenplan, en op de manier van optellen. Dat laatste kan een worst-case optelling zijn of een statistische optelling. Ook ben ik in ‘De verdeling van toleranties‘ nog ingegaan op de soorten verdelingen die er kunnen zijn: normaal verdeeld of juist niet. Nu ga ik in op een mix van statistisch optellen en worst-case optellen. En waarom dat vaak een nauwkeuriger resultaat op kan leveren.

Statistisch optellen heeft meestal de voorkeur

Statistisch optellen heeft meestal de voorkeur. Het geeft goede resultaten en het leidt niet tot onnodig hoge eisen aan toleranties. Maar is het de beste weergave van wat er in de praktijk gebeurt? Niet altijd, er is een nóg verdere verfijning mogelijk. Zodat jouw tolerantieanalyse een nog betere weerspiegeling wordt van de praktijk.

Sommige items vragen om een worst-case bijdrage

Stel nu dat er bijvoorbeeld een bewegend onderdeel in je tolerantieketen zit. Denk bijvoorbeeld aan de positie van een robotarm of aan een slede die over een geleiding beweegt. Het kan ook zijn dat er verschillende machinetoestanden zijn. Zoals bijvoorbeeld een machine die na enige inactiviteit weer in werking treedt. Als na het weer in werking treden, de machinetemperatuur oploopt dan kan de uitzetting van onderdelen misschien je tolerantieketen beïnvloeden.

Al deze, en vergelijkbare gevallen, hebben gemeen dat de uitersten (amplitude van beweging, verschil tussen warme en koude toestand, et cetera), eigenlijk altijd voor zullen komen. Het ene moment komt de kleinste/laagste waarde voor en het volgende moment de grootste/hoogste waarde. Let wel: van één en dezelfde machine. Die bijdragen mag je dus niet statistisch optellen omdat er geen uitmiddeling plaatsvindt. Die bijdragen in je tolerantieketen moet je dus worst-case optellen!

Beter optellen, een mix tussen statistisch en worst-case bijdragen

Als je het hier boven genoemde onderscheid maakt, krijg je dus een nog nauwkeurigere tolerantieanalyse: een tabel die onderverdeeld is in bijdragen die je statistisch optelt en bijdragen die je worst-case optelt. De algemene formule hiervoor ziet er dan zo uit:

Ttot = W1 + W2 + … Wn + √(T12 + T22 + … +Tn2)

Waarbij Wi alle bijdragen zijn die je worst-case optelt en Ti alle bijdragen die je statistisch optelt. Voor een spreadsheet programma zoals MS Excel of Calc van LibreOffice is dat een peulenschil. In het template (sjabloon) dat hier op de website wordt aangeboden is dat standaard aanwezig.

Wat en hoe te kiezen, statistisch of worst-case?

Misschien wordt het nu ingewikkeld. Welke bijdragen in je tolerantieketen moet je nu eigenlijk statistisch optellen en welke worst-case? Kun je op deze manier niet het resultaat al te zeer naar je hand zetten en ‘elke’ uitkomst krijgen die je wilt? Natuurlijk kun je het resultaat sterk beïnvloeden door je keuze. Maar je wilt een zo nauwkeurig mogelijke afspiegeling van de realiteit. Die keuze wil je wel overwogen maken om toekomstige problemen te voorkomen en toch zo een laag mogelijke kostprijs realiseren. De volgende vuistregel helpt je bij het maken van de juiste keuze:

Als de bijdrage in jouw keten (vrijwel) altijd in zijn uiterste waarden voorkomt dan tel je die worst-case op. Dat zijn dus bijdragen die niet uitmiddelen. Denk aan:

  • trillingen, bewegingen;
  • uitzettingen en krimp;
  • handling van veel producten;
  • slijtage;
  • slecht beheerste processen;
  • speling.

Een item als ‘handling van veel producten’ behoeft enige toelichting. Stel dat je tolerantieketen in een productieproces wilt analyseren en dat de afmeting van een ’te handllen product’ onderdeel is in je keten. Denk aan een robot die steeds een glasplaat moet verplaatsen en de dikte van de glasplaat is onderdeel van de tolerantieketen. Er komt natuurlijk niet één product voorbij in het productieproces, maar vele. De afmetingen van de producten zullen waarschijnlijk normaal verdeeld zijn. Maar die kun je niet als statistische bijdrage in je tolerantieketen opnemen! De producten met de grootste afwijking wil je ook door het productieproces laten gaan. Dat betekent dat je rekening houdt met de grootste afwijking en dus als worst-case item laat bijdragen in je tolerantieketen.
De laatste twee, slecht beheerste processen en speling, zijn niet per se een worst-case bijdrage maar zijn zeker niet normaal verdeeld. Je zou er ook voor kunnen kiezen om deze random (uniforme verdeling) op te tellen. Dan pas je dus een correctiefactor √3 op de statistische bijdrage. Zie ook het artikel ‘De verdeling van toleranties‘. Bijdragen die (redelijk goed) normaal verdeeld zijn, middelen wel uit en tel je dus statistisch op.

Een voorbeeld met getallen

Aan het eind van het artikel ‘Statistisch optellen van toleranties‘ wordt een voorbeeldberekening van statistisch optellen gegeven. De uitkomst daarvan, met alle items statistisch, is +/-0,62 mm. Stel nu dat je besluit dat item 2 een worst-case zou moeten zijn. Als je die aanpassing maakt, in dezelfde tabel, dan is de uitkomst met 0,17 mm gestegen naar +/-0,79 mm. Zie onderstaande berekening. Als de keuze dat item 2 een worst-case bijdrage zou moeten zijn goed is, dan is je tolerantieanalyse nu nauwkeuriger geworden en een beter afspiegeling van de praktijk.

Steeds vaker gebruikt

Deze geavanceerde methode wordt door steeds meer bedrijven toegepast en is ook bij bijvoorbeeld bij ASML standaard. In de cursus tolerantieanalyse van Mikrocentrum komt deze methode ook aan bod. Deze verfijnde methode is standaard aanwezig in het Excel spreadsheet sjabloon TolStackUp, dat op deze site aangeboden wordt.