Genauigkeitsangaben bei Drucksensoren richtig deuten

Genauigkeitsangaben bei Drucksensoren richtig deuten
by STS Sensors on February 28, 2017
Bei der Suche nach dem passenden Drucktransmitter spielen verschiedene Faktoren eine Rolle. Während
manche Anwendungen einen besonders hohen Druckmessbereich oder eine hohe
Temperaturbeständigkeit erfordern, ist bei anderen die Genauigkeit ausschlaggebend. Genauigkeit ist
aber in keiner Norm definiert. Wir verschaffen Ihnen einen Überblick über die verschiedenen Angaben.
Zwar ist „Genauigkeit“ keine definierte Norm, dennoch lässt sie sich anhand genauigkeitsrelevater
Angaben überprüfen, da diese normübergreifend definiert sind. Wie diese genauigkeitsrelevanten
Angaben in den Datenblättern unterschiedlicher Hersteller spezifiziert sind, ist allerdings deren Sache.
Das erschwert den Vergleich zwischen verschiedenen Herstellern für Anwender. Es kommt also darauf
an, wie die Genauigkeit in den Datenblättern angegeben wird und diese richtig zu deuten. Denn 0,5 %
Fehler können letztlich genauso genau wie 0,1 % sein – alles eine Frage der zur Ermittlung der
Genauigkeit herangezogenen Methode.
Genauigkeitsangaben von Drucktransmittern: Ein Überblick
Die am meisten verwendete Genauigkeitsangabe ist die Nichtlinearität. Diese beschreibt die
größtmögliche Abweichung der Kennlinie von einer Referenzgeraden. Um letztere zu ermitteln, gibt es
drei Methoden: die Grenzpunkteinstellung, die Kleinstwerteinstellung (BFSL) und die
Anfangspunkteinstellung. Sie alle führen zu unterschiedlichen Ergebnissen.
Die am leichtesten nachvollziehbare Methode ist die Grenzpunkteinstellung. Hier geht die
Referenzgerade durch Kennlinienanfang und -ende. Die Kleinstwerteinstellung ist hingegen die
Methode, welche die kleinsten Fehlerwerte ergibt. Dabei wird die Referenzgerade so gelegt, dass die
maximale positive und negative Abweichung gleich gross ist.
Die Anfangspunkteinstellung ist was die Ergebnisse betrifft zwischen den anderen beiden Methoden
einzuordnen. Nach welcher dieser Methoden die Hersteller verfahren, muss meistens direkt angefragt
werden, da diese Information häufig nicht in den Datenblättern vermerkt ist. Bei STS wird in der Regel
die Angabe Kennlinie nach Anfangspunkteinstellung verwendet.
Die drei Methoden im Vergleich:
Die Messabweichung ist die für Anwender wohl am einfachsten nachzuvollziehende Angabe zur
Genauigkeit eines Sensors, da sie direkt aus der Kennlinie abzulesen ist und die relevanten FehlerFaktoren bei Raumtemperatur beinhaltet (Nichtlinearität, Hysterese, Wiederholbarkeit etc.). Mit der
Messabweichung wird die größte Abweichung der tatsächlichen Kennlinie von der idealen Kennlinie
beschrieben. Da die Messabweichung einen größeren Wert ergibt als die Nichtlinearität, wird sie von
Herstellen nicht so häufig in Datenblättern angegeben.
Eine weitere verwendete Genauigkeitsangabe ist die typische Genauigkeit. Da individuelle Messgeräte
nicht identisch miteinander sind, geben Hersteller einen maximalen Wert an, der nicht überschritten
wird. Die darunter liegende „typische Genauigkeit“ wird also nicht von allen Geräten geleistet. Es ist
aber davon auszugehen, dass die Verteilung dieser Geräte dem 1-Sigma- Wert nach der Gauss’schen
Normalverteilung entspricht (also rund zwei Drittel). Das bedeutet auch, das ein Teil der Sensoren
genauer ist, als angegeben und ein weiterer Teil ungenauer (ein bestimmter Maximalwert wird aber nicht
überschritten).
So paradox es klingen mag: Genauigkeitsangaben können unterschiedlich genau sein. In der Praxis
bedeutet das, dass ein Drucksensor mit 0,5 % Fehler nach maximaler Nichtlinearität nach
Grenzpunkteinstellung genauso genau ist, wie ein Sensor mit 0,1 % Fehler nach typischer Nichtlinearität
nach Kleinstwerteinstellung.
Temperaturfehler
Die Genauigkeitsangaben Nichtlinearität, typische Genauigkeit und Messabweichung beziehen sich auf
das Verhalten des Drucksensors bei Referenztemperatur, welche in der Regel 25°C beträgt. Es gibt
natürlich auch Anwendungen, bei denen sehr tiefe oder sehr hohe Temperaturen auftreten können. Da
die Temperaturbedingungen die Genauigkeit des Sensors beeinflussen, muss zusätzlich der
Temperaturfehler mit eingerechnet werden. Mehr zum Temperaturverhalten piezoresistiver
Drucksensoren erfahren Sie hier.
Genauigkeit über die Zeit: Langzeitstabilität
Die Angaben zur Genauigkeit in den Produktdatenblättern geben Auskunft über das Instrument zum
Ende des Produktionsprozesses. Ab diesem Moment kann sich die Genauigkeit des Geräts verändern.
Das ist absolut normal. Die im Laufe der Lebensdauer des Sensors auftretende Veränderung wird in der
Regel als Langzeitstabilität aufgeführt. Auch hier beziehen sich die Angaben auf Labor- oder
Referenzbedingungen. Das bedeutet, dass sich auch in aufwendigen Tests unter Laborbedingungen die
angegebene Langzeitstabilität nicht zwingend für die realen Einsatzbedingungen genau beziffern lässt.
Zu beachten sind schließlich eine Vielzahl Faktoren: Temperaturbedingungen, Vibrationen oder die
auszuhaltenden Drücke selbst beeinflussen die Genauigkeit über die Produktlebensdauer.
Daher empfehlen wir, die Drucksensoren einmal im Jahr auf die Einhaltung ihrer Spezifikationen zu
überprüfen. Es gilt, die Veränderung des Geräts hinsichtlich der Genauigkeit zu prüfen. Dafür reicht es
normalerweise aus, den Nullpunkt im drucklosen Zustand auf Veränderungen zu überprüfen. Fallen
diese grösser aus, als vom Hersteller angegeben, ist das Gerät wahrscheinlich defekt.
Die Genauigkeit eines Drucksensors kann von einer Vielzahl von Faktoren beeinflusst werden. Darum
ist es unbedingt ratsam, sich vorab umfassend vom Hersteller beraten zu lassen: In welchen
Bedingungen wird der Drucktransmitter angewendet? Welche möglichen Fehlerquellen können
auftreten? Wie lässt sich das Instrument am besten in die Anwendung integrieren? Wie wurde die im
Datenblatt angegebene Genauigkeit ermittelt? So lässt sich schliesslich sicherstellen, dass Sie als
Anwender den Drucktransmitter erhalten, der Ihren Ansprüchen hinsichtlich Genauigkeit optimal
entspricht.