Ihre geschichtlichen Wurzeln hat die Analytik im mineralogischen und metallurgischen Bereich: Bergbau und die Weiterverarbeitung der Rohstoffe erforderten die Kenntnis von Art und Mengen der in Mineralien und Erzen enthaltenen Stoffe. Zu dieser Zeit war Analytik noch zu Recht „Analytische Chemie“ - ihre Methoden kamen samt und sonders aus der Chemie. Heute wird die Analytik universell dort verwendet, wo es nur irgendwie um Stoffe geht; ihre Prinzipien entstammen dabei der Chemie, der Biologie und der Physik, die hochgezüchteten Analysenverfahren wären ohne aufwendigen Einsatz der Technik und der Datenverarbeitung nicht möglich. Wo es um Routineaufgaben geht, sind Analysenverfahren oft schon voll automatisiert und greifen als Teil eines Regelkreises in vielfältige Produktionsprozesse ein.
Das Wort „Analyse“ bedeutet im Griechischen „Auflösung“. Dies läßt sich umschreiben als „Zergliederung, Zerlegung, Trennung eines Ganzen in seine Teile, Untersuchung eines Sachverhaltes unter Berücksichtigung seiner Teilaspekte“ 1). Erscheinungen der objektiven Realität werden in ihre Elemente (im philosophischen Sinne) und in Relationen zwischen diesen Elementen zerlegt. Durch eine anschließende gedankliche Synthese versucht man, das primär vorhandene Ganze zu rekonstruieren und sein Wesen zu erkennen. Diese Vorgehensweise ist grundlegend für alle Wissenschaften.
In den Naturwissenschaften bilden Gemische, Kristalle, Moleküle, Atome, Ionen die Erscheinungen der objektiven Realität; die Relationen zwischen ihnen zeigen sich ihrer Struktur, ihrem Aufbau. In diesem Sinne wäre Analytik in der Chemie die Zerlegung einer Substanz im Gegensatz zu deren Synthese. Doch ist diese Erklärung weder hinreichend noch umfassend genug, denn »Die Analyse bedingt zwar oft die Aufspaltung einer Verbindung in einfachere Stoffe (manchmal jedoch nur Abtrennung), sie ist jedoch nicht der genau umgekehrte Vorgang der Synthese, da ihr Ziel nicht die Gewinnung einfacherer Stoffe aus komplizierten, sondern - zwar oft mittels dieses Prozesses - deren Aufklärung nach Art und/oder Menge ist.« 2) Die Analyse zielt also nicht auf die Stoffebene, sondern versucht mit Blick auf ein chemisches System vielmehr dessen Art, die Menge seiner Elemente und seine Struktur während eines Zeitpunktes vollständig zu beschreiben. Da es also um die Information geht, könnte man Analyse definieren als »Transformation der in einem Objekt latent vorhandenen Informationen in aktive Information.« 3) oder mit Blick auf das technische Verfahren als »Ein System, das mindestens zwei Elemente (Probe und Reagenz) enthält sowie eine Relation (Signal) und das insgesamt der Informationsgewinnung dient.« 4)
»Die Analytik liefert optimale Strategien zur Gewinnung und Verwertung relevanter Informationen über Zustände und Prozesse in stofflichen Systemen. Chemisch orientierte Verfahren und Methoden sind dabei taktische Hilfsmittel zur Erreichung von Teilzielen.« Gottschalk: "Zukunftsaspekte der Analytik" »Chemische Analytik ist die Wissenschaft von der Gewinnung und verwertungsbezogenen Interpretation von Informationen über stoffliche Systeme mit Hilfe naturwissenschaftlicher Methoden.« Gesellschaft Deutscher Chemiker
Unabhängig vom gewählten Analysenverfahren findet sich eine immer gleiche Methodik in den folgenden Schritten:
Es gilt: 1. Abwesenheit von Beweisen ist nicht Beweis von Abwesenheit. Aber es gilt auch: //unus testis nullus testis//.
Fragestellungen ergeben sich aus konkreten Umweltsituationen: jemand ist betroffen durch die Situation, etwas hat sein Interesse erregt oder er sieht Probleme - kurzum, die Situation ist unklar und daraus erwächst ein Bedürfnis nach Information. Diese Information soll die zugrundeliegenden Fragen klären, z.B.:
Dieses Informationsbedürfnis ist klar, leicht verständlich und durch die subjektiven Interessen der Betroffenen enstanden. Entstanden ist es auch durch eine Güterabwägung: Gesundheit und Lebensqualität werden abgewogen gegen mögliche Risiken. Irgendein Anlaß hat die Betroffenen bewegt, sich diese Gedanken zu machen, z.B. schlechte Erfahrungen aus anderen Städten und Gebieten, Zeitungs- oder Fernsehberichte. Die näheren Umstände haben Mißtrauen erzeugt: vermehrt auftretende Erkrankungen oder Allergien, ein Chemieunfall auf der Straße oder in einem benachbarten Betrieb, die Erinnerung an längst vergessene Deponien oder Ähnliches. Dieses Mißtrauen mag dazu führen, daß den Aussagen städtischer Bediensteter oder den Pressereferenten größerer Betriebe kein Glauben geschenkt wird. Man will Sicherheit und glaubt diese am ehesten in der Wissenschaft zu finden. So wenden sich die Betroffenen an mehr oder weniger unabhängige Institute wie den TÜV, an kommerzielle Laboratorien oder an alternative Einrichtungen. Von ihnen erhoffen sie sich die Wahrheit.
Wahrheit bedeutet Wissenschaft: der hierfür zuständige Teil der Wissenschaft ist die analytische Chemie oder besser die Analytik.In einem Gespräch mit dem Analytiker werden sofort Probleme deutlich: Es gibt keinen Test, der die Fragen nach der Gesundheit so direkt und klar beantworten kann. Die Wahrheit des Analytikers ist eine verschlüsselte. Ähnlich dem Orakel bedarf sie der Deutung. Eine Unterhaltung zwischen Analytiker und Betroffenen könnte folgendermaßen ablaufen:
In einem solchen Gespräch muß das allgemeine Interesse der Betroffenen in die Fachsprache des Analytikers übersetzt werden. Dabei wird es gleichzeitig zerlegt in analytisch beantwortbare Teilfragen. Erst diese sind dann mit der wissenschaftlichen Methodik untersuchbar. Nach Beendigung der Untersuchung erfolgt der gleiche Vorgang umgekehrt. Teilergebnisse werden verständlich gedeutet und formuliert. Aus der Summe der Teilantworten sollte sich die übergeordnete Antwort für den Interessenten konstruieren lassen. Das Kritische dieser Vorgehensweise liegt auf der Hand: es wird zweimal übersetzt und es wird zweimal interpretiert. Das Ergebnis ist sicher eine wissenschaftlich fundierte Wahrheit, aber nicht unbedingt Wahrheit in der Qualität, wie sie die Betroffenen erwarten.
Graham Priest: Gibt es mehr als nur wahr oder falsch? Die westliche Philosophie mit ihrer Logik war über Jahrtausende nicht bereit, wahre Widersprüche zu tolerieren. Das buddhistische Denken kennt da einen faszinierenden anderen Weg: Das Catuṣkoṭi. DIE ZEIT Nr. 25/2020
Dieser Prozeß macht die so gewonnenen Wahrheiten außerordentlich anfällig für Manipulationen. Auseinandersetzungen lassen sich daher oft nicht mit dieser Vorgehensweise schlichten, da beide Parteien diese Wahrheiten für sich instrumentalisieren können. Pointiert lassen sich sechs Strategien unterscheiden:
Im konkreten Fall mag es durchaus möglich sein, daß alle Strategien gleichzeitig auf dasselbe Analysenergebnis angewandt werden, da unterschiedliche Gruppen unterschiedliche Interessen haben.Es mag paradox erscheinen, daß eine wissenschaftlich exakt geführte, enorm aufwendige Untersuchung zu einem Ergebnis führt, das nahezu beliebig bewertet werden kann. Der Wert der Untersuchung ist damit selber in Frage gestellt!
Das Bemühen von Analytikern, Labors und Instituten um ein möglichst richtiges und objektives Ergebnis bewirkt einerseits standardisierte, anerkannte und vergleichbare Analysenverfahren mit einer Vielzahl genauester Angaben, Voraussetzungen und Bedingungen über Probenahme, Probenvorbereitung, Messung, Auswertung, Angabe von Ergebnis und Fehler, deren Beachtung einen äußerst gewissenhaft arbeitenden Analytiker verlangt. So umfasst die DIN 52400 Teil 2 „Bestimmung des Schwefelgehaltes in Mineralölen“ sechs kleinbedruckte A 4-Seiten mit Querverweisen auf weitere acht DIN-Ausgaben.
Andererseits sind die Auftraggeber meist analytische Laien. Für sie zählt das Ergebnis nicht als Produkt eines solch komplexen Prozesses verstehen, sondern oft nur als Ja-Nein-Grundlage einer Entscheidung. das objektive Ergebnis muss situativ etwas ergeben, ein subjektives Resultat bewirken. Dann muß sich der Analytiker fragen:
Der verantwortungsvolle Analytiker muß zusätzliche Hinweise über den Aussagewert seiner Untersuchung liefern; er muß sich klar sein, daß sein Resultat eine interpretationsbedürftige Information darstellt. Der Chemiker R. Pudill
meint dazu: »Es reicht jedoch nicht, einem Auftraggeber nur Analysenwerte zu liefern. Ebenso wichtig ist die zusätzliche Bewertung der Ergebnisse und die Abschätzung ihrer Auswirkungen. Die Umweltanalytik kann ihre Aufgaben daher nur lösen, wenn sie sich interdisziplinär versteht und neben den Naturwissenschaften auch die Ökologie, die Toxikologie und die Gesellschaftswissenschaften einbezieht.« 5)
Die Schwierigkeit des Analytikers besteht nun darin, aus diesem unauflösbaren Konflikt heraus eine analytisch umsetzbare Fragestellung herauszukristallisieren. Ohne jetzt auf Einzelfälle einzugehen, lassen sich die Ziele des Analytikers in etwa folgenden Zielgruppen zuordnen 6):
Die methodenorientierte Analytik entwickelt und optimiert Analysenprinzipien, -methoden und -verfahren unter den Anforderungen der problemorientierten Analytik. Deren Aufgabenstellungen sind:
Der Analytiker sucht nach Informationen, die im Untersuchungsobjekt als statisches Signal gespeichert sind. Der gesamte Weg vom statischen Signal bis zur Information wird Analysenverfahren genannt. Die dazu benötigten Analysenmittel stellen sich als Methoden dar, die stofflich und energetisch Wechselwirkungen provozieren zwischen den Bestandteilen der zu untersuchenden Probe einerseits und mit von außen kontrolliert zugeführten Stoffen und Energien andererseits, wobei diese Wechselwirkungen zu messbaren Werten führen, welche nach gesicherten mathematischen Verfahren zielgerichtet ausgewertet werden können.
Soll beispielsweise der Gehalt des Objektes an einer bestimmten Komponente untersucht werden, so werden sich eine Reihe von Analysenprinzipien finden lassen, die grundsätzlich zur Wechselwirkung mit dieser Komponente geeignet sind (siehe im Abschnitt „Messung“). Schließen wir der Einfachheit halber einmal elastische Wechselwirkungen der Komponente mit elektromagnetischer und Teilchenstrahlung aus und beschränken uns auf das Feld der reaktionsenergetischer Vorgänge. Die chemische Reaktion kann durch ihren Verlauf, durch Zwischen-, Übergangs- und Endprodukte sowie den dabei auftretenden Zustandsänderungen analytisch verwertbare Informationen liefern. Als Meßgrößen sind erfassbar:
Da diese Meßgrößen mit den analytischen Informationen nur über stöchiometrische Faktoren zusammenhängen, stellen chemische Reaktionen Absolutmethoden dar, die wiederum zum Eichen anderer Methoden dienen. Damit eine Reaktion in diesem Sinne verwendet werden kann, müssen drei Voraussetzungen erfüllt sein:
Da chemische Reaktionen meist mit messbaren thermischen Effekten verbunden sind, ergeben sich weitere thermische Meßgrößen als Grundlage von Analysenprinzipien, nämlich:
Diese Fülle möglicher Analysenprinzipien steigt ins Unermessliche durch methodische Varianten, wie nachfolgend am Beispiel der Bestimmung von Schwefelsäure in wässrigen Proben sichtbar wird. Auf der Basis chemischer Reaktionen bieten sich als zugrundeliegende Prinzipien etwa an:
Das Analysenprinzip enthält keine Aussage darüber, wie die Reaktion durchgeführt wird und was gemessen wird. Es empfiehlt sich daher, von Analysenmethode zu reden, sobald das „Wie“ geklärt ist. Die ausgewählte Reaktion kann unter zahlreichen unterschiedlichen Bedingungen durchgeführt werden, denn
Beispielsweise kann die Reaktion mit Bariumchlorid in einem Tropfen unter dem Mikroskop, auf der Tüpfelplatte oder in einem Reagenzglas durchgeführt werden. Das Resultat ist immer qualitativ: es läßt sich erkennen, ob Sulfat vorliegt oder nicht - quantitative Aussagen lassen sich nicht machen. Alle drei Methoden sind schnell durchführbar. Der Einsatz von Mikroskop und Tüpfelplatte ist sinnvoll, wenn beispielsweise die zur Verfügung stehende Probenmenge sehr gering ist.
Der apparative Aufwand steigt, wenn die Methode quantitative Aussagen ermöglichen soll. Beispielsweise kann die Titration mit einer normalen Bürette oder einer Mikrobürette erfolgen. Die Reaktion mit Bariumhydroxid läßt sich gravimetrisch erfassen oder titrimetrisch, bei letzterer Methode können Farbindikatoren eingesetzt werden oder der Endpunkt konduktometrisch bestimmt werden. Beim Einsatz von Farbindikatoren ist wiederum der Einsatz des Photometers möglich. Aus diesen drei Prinzipien ergeben sich zahlreiche Methoden:
1. Fällung und nachfolgende gravimetrische Bestimmung 1.1 mit Bariumverbindungen 1.1.1 über Bariumchlorid 1.1.2 über Bariumhydroxid 1.1.3 über Bariumperchlorat 1.1.4 über Bariumacetat 1.2 mit Calciumverbindungen 1.2.1 über Calciumchlorid 1.2.2 über Calciumhydroxid 1.2.3 über Calciumoxalat 1.3 mit Bleiverbindungen 1.3.1 über Bleichromat 2. Neutralisationstitration mit Säure-Base-Indikatoren zur Endpunktbestimmung 2.1 mit Natronlauge 2.2 mit Kalilauge 3. Fällungstitration mit allen unter 1. genannten Möglichkeiten 3.1 und konduktometrische Gehaltsbestimmung 3.2 und amperometrische Gehaltsbestimmung 3.3 und potentiometrische Gehaltsbestimmung 4 Photometrische Bestimmung 4.1 mit Parafuchsin
Über die Auswahl einer geeigneten Analysenmethode entscheiden gänzlich andere Kriterien. Auf der einen Seite begrenzen die apparative Ausstattung des Labors, die Erfahrung und die Fähigkeiten des Analytikers die Auswahl der Methode. Auf der anderen Seite stehen die Anforderungen des Interessenten:
Unter Berücksichtigung dieser Anforderungen sollten sich bereits einige Analysenmethoden von anderen abheben. Es kann sich dabei nur um eine Vorauswahl handeln, da das zu untersuchende Objekt selbst bisher noch nicht berücksichtigt wurde. Je mehr über dieses Objekt bzw. die Probe bekannt ist, desto erfolgreicher kann eine vielversprechende Analysenmethode ausgewählt und daraus ein Analysenverfahren entwickelt werden:
Werden beispielsweise Wasserproben aus Oberflächengewässern gezogen, so ist durchaus mit einer sich verändernden Probe zu rechnen: darin enthaltene Algen verändern den Sauerstoffgehalt, so können Bakterien Ammonium umsetzen. Man muß daher überlegen, einige Parameter gleich vor Ort zu messen oder die Probe geeignet zu konservieren (kühlen, einfrieren). Kontinuierliche Messungen ermöglichen differenzierte Aussagen über das zeitliche Verhalten, möglicherweise können unbekannte Anfangswerte extrapoliert werden.
Eine Wasserprobe kann durchaus heterogen sein, auch wenn sie auf den ersten Blick völlig klar und gleichmäßig erscheint. Sauerstoff und Kohlenstoffdioxid sind nahezu immer darin gelöst; bei Tiefenwasser muss jedoch ein Ausgasen verhindert werden bzw. entwichenes Gas aufgefangen und getrennt untersucht werden, weil sich Löslichkeiten ändern, wenn sich Druck und Temperatur der Probe ändern.
Die Probenmengen können begrenzt sein, etwa bei Proben von Lebewesen oder wertvollen Objekten. Dann stehen vielleicht nur Milligrammengen zur Verfügung oder es handelt sich von vorneherein um Mikroanalytik mit Substanzmengen im Mikrogrammbereich. Auch das schränkt die Wahl der Methode ein.
Aber zurück zu unserem schwefelsäurehaltigen Wasser. Eine solche Probe ist meist problemlos. Sicher sind auch hier sulfatabbauende Bakterien möglich, aber sehr selten und wir können von einer stabilen Probe ausgehen. Auch die Probenmengen sollten nicht ungewöhnlich klein sein, da Regen, Grundwasser, Oberflächenwasser hinreichend vorhanden sind. Schwierig wird es allerdings mit dem Gehaltsbereich: Schwefelsäure liegt in Regenwasser im ppm-Bereich vor und dies begrenzt die Anwendbarkeit einiger Methoden. So kann beispielsweise nicht mit Natrium- oder Kalilauge titriert werden, da diese sehr schnell mit dem Kohlenstoffdioxid aus der Luft reagieren und bei solch geringen Gehaltsmengen die Resultate entscheidend verfälschen. Auch Titrationen mit anderen Lösungen sind nur möglich, wenn entweder sehr stark verdünnte Lösungen und/oder Mikrobüretten eingesetzt werden. Es muß dann in Vorversuchen ermittelt werden, ob die Konzentrationsänderungen stark genug sind, um mittels Farbindikatoren oder konduktometrisch erkannt zu werden. Gravimetrische Bestimmungen erfordern in diesem Arbeitsbereich große Probenmengen, sehr genaues Arbeiten und extrem genaue Analysenwaagen. Die Methode der Wahl wäre in diesem Fall vermutlich die konduktometrische Titration mit Bariumacetat aus der Mikrobürette.
Die geeignete Analysenmethode ist nun gewählt, das Analysenverfahren ist jedoch noch nicht vollständig. Anforderungen des Auftraggebers hinsichtlich Genauigkeit, Preis, Zeitaufwand können erst anhand des vollständigen Analysenverfahrens bestimmt werden.
Bei der Probenahme wird ein Teil des Analysenobjektes stellvertretend für das Ganze entnommen; selber möglichst klein, soll die Probe das Objekt in allen zu untersuchenden Eigenschaften exakt abbilden: die Probe repräsentiert das Objekt. Diese Forderung kann relativ einfach erfüllt werden, wenn das zu untersuchende Objekt räumlich und zeitlich homogen ist. Genau genommen wird dies niemals der Fall sein. Alle Regeln für die Probenahme bezwecken jedoch, dieses Ideal zu erreichen. Selbst im scheinbar einfachsten Fall, der Probenahme aus Luft, sind die Verhältnisse verzwickt: Raumluft unterscheidet sich von Außenluft, die Luft über Straßen ändert sich schon nach wenigen Metern, an Kreuzungen herrschen wieder andere Verhältnisse, bei Sonnenschein finden andere Reaktionen statt als nachts, Wind und Regen tun ein übriges.
Viele allgemeine Regeln lassen sich vor diesem Hintergrund verstehen:
Die Methodik der Probenahme berücksichtigt dies durch Einzel-, Sammel-, Stich-, Teil- Mischproben. Für die meisten Einzelfälle gibt es in der Literatur genaue Angaben über die Technik der jeweiligen Probenahme. Diese Vorgehensweisen entstammen letztlich der Erfahrung und sind durch vergleichende Untersuchungen mit statistischen Methoden verifiziert worden. Sie sind optimale Annäherungen an das Ideal. Ein Probenahmefehler wird so minimiert, haftet jedoch mit einer bestimmten Größe am Ergebnis.
Die Menge der zu nehmenden Probe richtet sich sowohl nach dem Anteil der zu bestimmenden Komponente in der Probe als auch nach der Menge, die mit dem ausgewählten Analysenverfahren bestimmbar ist. Diese Mengen sind im System der analytischen Mengenbereiche festgelegt:
Die Probe ist die Informationsquelle für die Messung. Oft sind jedoch die gesuchten Informationen, die statischen Signale, nicht in der vorliegenden Form meßbar, unter störenden Einflüssen verdeckt oder zu schwach. Die Probenvorbereitung beseitigt diese Mängel und passt die Probe optimal an das nachfolgende Meßverfahren an. Dabei darf der zu untersuchende Bestandteil nur in eindeutiger Weise verändert werden.
Informationstheoretisch betrachtet wird dadurch die gesuchte Information verstärkt (angereichert), gefiltert (getrennt) oder umcodiert (in eine meßbare Form überführt). Dabei darf die Information nur mathematisch eindeutig, jedoch nicht zufällig verändert werden.
Die chemischen Verfahren zur Probenvorbereitung basieren auf Verfahren zum Trennen, Lösen und Aufschließen. Diese werden so eingesetzt, dass
Während des Messvorgangs muss die Probe räumlich und zeitlich homogen sein, andernfalls muss sie stabilisert werden.
Räumliche Homogenität ist bei gasförmigen und flüssigen Stoffen meist gegeben oder kann durch Phasentrennung (Abscheiden, Filtern usw.) erreicht werden. Feste Proben werden durch Lösen oder Aufschließen homogenisiert. Der Übergang zwischen beiden Methoden ist fließend: Dabei bedeutet Lösen die Überwindung der Gitterenergie des zu lösenden Stoffes durch Solvatations- oder thermische Energie mit einem geeigneten Lösungsmittel.
Aufschlußmethoden dagegen beruhen auf chemischen Reaktionen im engeren Sinne:
Die folgende Tabelle gibt eine (unvollständige) Übersicht über mögliche Aufschlussmethoden:
1 Aufschlüsse über Ionenreaktionen 1.1 in Lösung mit HCl, HBr oder HJ mit Schwefelsäure mit Phosphorsäure mit Alkalimetallhydroxid oder -carbonat-Lösungen 1.2 in der Schmelze mit Hydrogensulfaten oder Disulfaten mit Alkalimetallhydroxiden mit Alkalimetallcarbonaten 1.3 Enzymatische Aufschlüsse 2 Aufschlüsse über Redoxreaktionen 2.1 Oxidierende Verfahren mit Sauerstoff oder Ozon mit Oxonium-Ionen mit Salpetersäure oder Stickoxiden mit Wasserstoffperoxid mit Peroxiden oder Persulfaten mit Kaliumpermanganat 2.2 Reduzierende Verfahren mit Wasserstoff mit Kohlenstoff mit Metallen oder metallorganischen Verbindungen mit Lithiumaluminiumhydrid mit Hydrazin mit Natriumborhydrid 3 Aufschluß durch Energiezufuhr mit thermischer Energie mit elektrischer Energie mit Strahlungsenergie
Trennverfahren sollen feste, flüssige und gasförmige Phasen sauber voneinander trennen. Hierfür sind alle Methoden geeignet die bewirken, daß sich die Teilchen der unterschiedlichen Phasen entweder in verschiedene Richtungen bewegen und/oder unterschiedlich schnell in der gleichen Richtung bewegen. Dazu wird auf die zu trennende Probe von außen eine Kraft ausgeübt, die das bestehende Gleichgewicht in einneues überführt. Solche Kräfte entstehen durch Änderungen von Druck, Temperatur, Konzentration, elektrischem-, magnetischem oder Schwerefeld und wirken auf die Eigenschaften der Teilchen: Teilchenmasse, -ladung, -größe oder Eigenschaften der Phasen: Dampfdruck, Dichte, Löslichkeit.
Elektrisches Feld | Magnetfeld | Schwerefeld | |
---|---|---|---|
Teilchenmasse | Elektrodialyse | Massenspektrometrie | Zentrifugieren, Dekantieren |
Teilchengröße | Elektrophorese | Magnetscheidung | Filtrieren, Sieben |
Teilchenladung | Elektrolyse | Elektrofiltration |
Druck | Temperatur | Konzentration | |
---|---|---|---|
Teilchengröße, - masse | Druckdiffusion | Thermodiffusion | Diffusion |
Löslichkeit | Entgasen | Kristallisation, Ausfrieren | Fällung, Extraktion |
Dampfdruck | Vakuum-Destillation | Trocknung, Destillation, Sublimation | |
Absorption, Adsorption | Alle Arten | der | Chromatografie |
Die Messung ist der komplexeste Vorgang im Analysenverfahren, bei dem die statischen, stoffgebundenen Informationen in dynamische Signale umgewandelt werden. Neben den unbegrenzt möglichen chemischen Reaktionen sind nach kursorischer Dursicht mehr als 300 Meßprinzipien geeignet, solche stofflich-energetischen Wechselwirkung einer Messung zugänglich zu machen.
Jedes einzelne Meßprinzip basiert auf einer eindeutigen Wechselwirkung mit bestimmten Bestandteilen der Probe. Diese Wechselwirkung wird durch eine Meß- oder Eichfunktion mathematisiert: die Meßgröße (Gewicht, Volumen, Extinktion, Leitfähigkeit usw.) entspricht dabei eindeutig der analytischen Information (Gehalt oder Struktur einer Komponente). Die Ergebnisse dieser Eichungen sind beispielsweise Spektrallinientabellen, die Schemata der Trennungsgänge, der elektrogravimetrische Faktor 1, Titrationsfaktoren oder eine mathematische Formel.
»Bei jeder Analyse wird die Probe über die Analysenfunktion (u.U. ist das nur ein Umrechnungsfaktor) mit den Eichproben verglichen, die zur Eichung des Verfahrens benutzt wurden. (Bei gängigen, bewährten Verfahren mag das lange her sein, der Autor und seine Arbeit mögen vergessen sein; seine Ergebnisse gehören jedoch zum anonymen Erfahrungsschatz der Analytischen Chemie)« Methodicum Chimicum
Die Vielzahl möglicher Meßprinzipien zeigt sich über die Gliederung der möglichen stofflich-energetischen Wechselwirkungen.
Bei den sogenannten elastischen Wechselwirkungen werden derzeit elektromagnetische- und Teilchenstrahlung eingesetzt. Die Energie der Strahlung ändert sich dabei nicht (elastische W.), es finden lediglich Richtungsänderungen statt; diese Veränderungen werden zur Strukturaufklärung genutzt. Dabei führt jede Wellenart durch Beugung, Brechung, Reflexion, Polarisation und Streuung zu unterschiedlichsten Meßprinzipien.
Bei den unelastischen Wechselwirkungen verändert sich die innere Energie der Probe: dabei charakterisiert der resultierende Energiebetrag die Art der vorhandenen Komponenten, während die Summe aller gleichartigen Energiequanten die Menge der Komponenten beschreibt:
Die folgende Tabelle deutet die Vielzahl der Möglichkeiten nur an, die durch die oben aufgeführten Wechselwirkungen möglich sind.
1. Änderungen der Reaktionsenergie (chemisches und elektrochemisches Potential) 1.1 Potentialänderungen durch Protonenaustausch 1.2 Potentialänderungen durch Ionen- oder Radikalreaktionen 1.2.1 Lösen und Aufschließen ohne Redoxvorgänge 1.2.2 Fällungen ohne Redoxvorgänge 1.2.3 Komplex- und Ligandenaustauschreaktionen 1.3 Potentialänderungen durch Elektronenaustausch 1.3.1 Redoxreaktionen in homogener Phase 1.3.1.1 Oxidierende Verfahren 1.3.1.2 Reduzierende Verfahren 1.3.2 Redoxreaktionen an Phasengrenzflächen 1.3.2.1 Verfahren ohne Elektrodenreaktion 1.3.2.1.1 Konduktometrie 1.3.2.2 Verfahren mit Elektrodenreaktionen 1.3.2.2.1 Potentiometrie 1.3.2.2.2 Amperometrie 1.3.2.2.3 Elektrogravimetrie 1.3.2.2.4 Elektrolytische Trennung 2 Änderungen der Aggregationsenergie 2.1 Thermische Meßprinzipien 2.1.1 Wärmeleitfähigkeitsmessungen 2.1.2 Kalorimetrie 2.2 Lösen ohne chemische Reaktionen 2.2.1 Lösungsmittel 2.2.2 Aufschließen durch Energiezufuhr 2.2.3 Gleichgewichte an Phasengrenzflächen 2.2.3.1 Ausschütteln 2.2.3.2 Gaschromatografie 2.2.3.3 Fällungen 2.2.3.4 Destillation 3 Änderungen der Molekülenergie 3.1 Mikrowellen-Spektroskopie 3.2 IR-Spektroskopie 3.3 Raman-Spektroskopie 4 Änderungen der Elektronenenergie 4.1 UV-VIS-Spektroskopie 4.2 Röntgen-Spektroskopie 4.3 Elektronenspinresonanz-Spektroskopie 5 Änderungen der Kernenergie 5.1 Kernresonanz-Spektroskopie 5.2 Mößbauer-Spektroskopie 5.3 Aktivierungsanalyse 6 Änderungen der Translationsenergie 6.1 Beschleunigung im elektrischen und magnetischen Feld 6.1.1 Massenspektrometrie 6.1.2 Elektrodialyse 6.1.3 Elektrolyse 6.2 Beschleunigung im Schwerefeld 6.2.1 Filtration 6.2.2 Zentrifugation 6.3 Unterschiedliche Wanderung im Zustandsgradienten 6.3.1 Wanderung im Druckgradienten 6.3.1.1 Druckdiffusion 6.3.1.2 Reversosmose 6.3.2 Wanderung im Temperaturgradienten 6.3.2.1 Destillation 6.3.2.2 Sublimation 6.3.3 Wanderung im Konzentrationsgradienten 6.3.3.1 Diffusion
Die Meßgrößen des elektromagnetischen Spektrum sind Wellenlänge, Wellenzahl, Frequenz, Strahlungsenergie, thermische Energie, kinetische Energie, de-Broglie-Wellenlänge u.a.m. Ihnen liegen im Gegensatz zu den unelastischen Wechselwirkungen quantenoptische Erscheinungen und damit ein definierter Energieaustausch mit den Komponenten der Probe zugrunde.
Der Meßvorgang setzt sich zusammen aus:
• der Codierung statischer Probensignale in dynamische Signale und • der Codierung dynamischer Signale in Meßgrößen.
Die mathematische Form der Codierung ist zum einen durch das Analysenprinzip festgelegt und wird durch gerätetechnische Randbedingungen der Analysenmethode beeinflußt. In ihrer Gesamtheit ergibt sich daraus die Meß- oder Eichfunktion; deren Umkehrfunktion wird Analysenfunktion genannt. Für unelastische Wechselwirkungen gilt:
Eichfunktion w = f (z) Meßgröße w z z Analysenfunktion z = g (w ) analytische Information z z
Es besteht eine Beziehung zwischen der Meßgröße (Gewicht, Volumen, Extinktion usw.) und der geforderten analytischen Information (z.B. Gehalt einer Komponente). Diese Beziehung wird immer durch Eichung der Methode erhalten, beispielsweise mittels einer Probe bekannter Zusammensetzung. Mit der Eichung werden die Koeffizienten der Analysenfunktion bestimmt. Diese Koeffizienten können nur dann im voraus festgelegt werden, wenn ihnen eine eindeutige chemische oder physikalische Bedeutung zukommt. Dies ist beispielsweise bei gravimetrischen und titrimetrischen Untersuchungen der Fall; eine zusätzlich noch stattfindende Faktorierung korrigiert dann lediglich Abweichungen, die sich aus dem Analysenverfahren ergeben (Konzentrationsänderungen einer älteren Lösung). Praktisch wird die Eichung gravimetrischer und titrimetrischer Methoden nicht mehr durchgeführt, da die betreffenden Werte aus der Literatur bekannt sind. Analytische Information und Meßgröße unterscheiden sich bei diesen Verfahren nur durch einen stöchiometrischen Faktor z = a w z Im Falle elektrogravimetrischer Metallabscheidung ist dieser Faktor gleich eins.
Die Ergebnisse der Eichung kann die Beziehung zwischen Meß- und Analysengröße auf drei Arten darstellen:
Am Beispiel einer Schwefelsäure-Bestimmung sollen diese Zusammenhänge verdeutlicht werden: Eine Lösung enthält einen exakten, aber uns unbekannten Sulfatanteil (statisches Signal 1). In der Reaktion mit Bariumacetat oder Calciumoxalat oder Bleichromat oder …. fällt ein schwerlösliches Produkt aus. Dieses Produkt enthält wieder denselben, uns immer noch unbekannten Sulfatanteil (statisches Signal 2). Dennoch liefert uns diese Reaktion alle Informationen, um an die gesuchte analytische Information (Sulfat- oder Schwefelsäuregehalt) zu gelangen.
Bei der gravimetrischen Vorgehensweise wird das schwerlösliche Produkt in sauberer, trockener Form gewogen (Meßgröße: Masse) und wir erhalten einen definierten Meßwert. Um daraus die gewünschte analytische Information zu erhalten, bedarf es der Eichung. Dazu könnte man Lösungen mit bekannter Sulfatkonzentration mit Bariumacetat oder Calciumoxalat oder Bleichromat oder …. umsetzen, das schwerlösliche Produkt wiegen und dessen Masse ins Verhältnis zu den bekannten Sulfatkonzentrationen setzen: Ergebnis wäre ein gleichbleibender analytischer Faktor a. Da die zugrundeliegenden Reaktionen naturgesetzlich determiniert sind, kann sich dieser Faktor niemals ändern und wird in Tabellenwerke oder analytische Handbücher aufgenommen. Die gesuchte Sulfatkonzentration z ergibt sich nun aus Multiplikation des Faktors a mit dem Meßwert w:
Analytische Information = Faktor x Meßwert
Dieselben Reaktionen können auch als Fällungstitration durchgeführt werden. Der Endpunkt der Reaktion wird konduktometrisch oder potentiometrisch bestimmt. Der eigentliche Meßwert ist dann das Volumen der zugegebenen Lösung (Bariumacetat, Calciumoxalat, Bleichromat) bekannter Konzentration. Die Eichung kann erfolgen wie bei der gravimetrischen Bestimmung. Sie kann aber auch nach der gleichen Methode titrimetrisch anhand Sulfatlösungen bekannter Konzentration durchgeführt werden. Auf jeden Fall erhält man auch hier einen Faktor, der jedoch auf die verwendeten Lösungen (z.B. c= 1 mol/l) bezogen und daher vom Faktor a verschieden ist. Die verwendeten Lösungen können von Labor zu Labor einen weiteren, jeweils unterschiedlichen Faktor haben (z.B. 0,9876), der aber nur zur Korrektur einer abweichenden Konzentration dient. Bei der Fällungsreaktion mit Bariumchlorid wäre sogar eine photometrische Bestimmung der entstehenden Trübung möglich; Bariumchlorid-Lösung würde im Überschuß zugesetzt. Meßwert ist dann die Extinktion. Zur Eichung werden verschiedene Sulfatlösungen unterschiedlicher Konzentration ebenso behandelt und man erhält entweder einen Umrechungsfaktor oder erstellt einen graphischen Zusammenhang zwischen Extinktion und Sulfatkonzentration.
Das Ergebnis obigen Beispiels ist ein Zahlenwert, der die Masse oder Konzentration angibt. Ein sorgfältiger Analytiker hat den gesamten Vorgang mehrfach wiederholt und erhält jedes Mal einen etwas anderen Zahlenwert. Das kann, muß aber kein Grund zur Beunruhigung sein.
Ziel des analytischen Prozesses ist es, einen wahren Wert zu finden. Nach all dem, was bislang ausgeführt wurde, scheint dies prinzipiell unmöglich zu sein. Anzustreben ist jedoch erstens eine möglichst gute Annäherung an den wahren Wert und zweitens eine Angabe, wie gut diese Annäherung ist. Wie kann der Analytiker herausfinden, ob er sich dem wahren Wert gut oder schlecht angenähert hat?
Nehmen wir an, eine Probe mit bekanntem Gehalt eines Stoffes wird von verschiedenen Personen mehrfach analysiert und die Ergebnisse werden anhand einer Zielscheibe verglichen, deren Mittelpunkt den wahren Wert darstellt. Dann lassen sich die folgenden Typen von Fehlern erkennen:
Fehlerart | Präzision | Richtigkeit | Korrektur mittels |
---|---|---|---|
zufälliger F. | schlecht | gut | Fehlerrechnung |
systematischer F. | gut | schlecht | Verfahrensänderung |
grober F. | mittel | mittel | Ausreißer-Test |
Verfahrens-F. | optimal | optimal | Verfahrensvergleich |
Zufällige Fehler verursachen eine Streuung um den wahren Wert und beeinflussen die Reproduzierbarkeit der Werte. Sie sind unvermeidbar und hängen von Schwankungen der Fehlerquellen ab (z.B. natürliche Schwankungen beim Pipettieren). Zur Minimierung werden Wiederholungsmessungen mit demselben Verfahren und durch denselben Analytiker durchgeführt und der Mittelwert gebildet. Die mit statistischen Methoden errechenbare Streuung um den Mittelwert ist ein Parameter für die Genauigkeit der Messung.
Der Mittelwert ist eine optimale Annäherung an den wahren Wert, den man bei unendlichfacher Wiederholung der Messungen erhalten würde. Die Präzision steigt aber nicht linear mit der Anzahl zusätzlicher Messungen, sondern mit der Wurzel aus deren Anzahl: vier Messungen sind doppelt so genau wie eine Messung; hundert Messungen sind zehnmal so genau wie eine, aber nur fünfmal so genau wie vier Messungen. Messwerte mit steigender oder fallender Tendenz dürfen nicht zur Mittelwertbildung herangezogen werden. Die Meßwerte müssen der Gaußschen Normalverteilung gehorchen.
Ein Maß für die Streuung um den Mittelwert und somit für die Reproduzierbarkeit ist die Standardabweichung s; sie wird als Absolutfehler des Mittelwertes in dessen Maßeinheit angegeben. Die Varianz s und der Variationskoeffizient s sind gleichwertige Angaben, bedürfen jedoch der Umrechnung. Komplizierter liegen die Verhältnisse, wenn eine Größe nicht direkt gemessen, sondern aus jeweils fehlerbehafteten Einzelmessungen berechnet wird. Dann muß die Standardabweichung nach dem Gaußschen Fehlerfortpflanzungsgesetz ermittelt werden.
Der systematische Fehler wird durch eine einseitige Tendenz in den Fehlerquellen verursacht und läßt sich durch Wiederholung des Verfahrens nicht ausschließen. Soweit diese bekannt sind, kann und muß er durch Korrekturen beseitigt werden. Systematische Fehler lassen sich häufig auch noch in der Auswertung korrigieren, ohne daß der Versuch wiederholt werden muß.
Absolute, systematische Fehlerquellen sind z.B.:
Relative, systematische Fehlerquellen sind:
((aus: Ullmans Enzyklopädie der Technischen Chemie, Band 5, Bandermann: „Auswertung von Meßdaten“) )
Systematische Fehler lassen sich in Analysenverfahren nur durch komplexe statistische Verfahren aufdecken. Eine Möglichkeit ist die Modellanalyse: dabei wird die zu untersuchende Komponente in bekannter Konzentration vorgegeben und das Verfahren durchgeführt. Im Idealfall sollten die Ergebnisse nur um den Betrag des Zufallsfehlers schwanken - dies muß statistisch verglichen werden. Eine weitere, aufwendigere Möglichkeit ist es, das Verfahren bei wechselnden Parametern (Zeit, Konzentration, Temperatur, Reagenzien, Geräten, Analytiker) durchzuführen und die Ergebnisse und Varianzen zu vergleichen.
Die groben Fehler sind nicht korrigierbar und können bei der statistischen Aufarbeitung der Ergebnisse nicht berücksichtigt werden. Sie gelten als Ausreißer und können mit geeigneten mathematischen Verfahren als solche erkannt werden (z.B. nach Nalimov). Fehlerquellen können beispielsweise sein:
Die Einteilung in einen Verfahrensfehler ist unüblich, da normalerweise nur die Fehler während der Durchführung einer Methode betrachtet werden. Sie ist aber nützlich, da schon bei der Auswahl eines Verfahrens dessen verfahrenseigener Fehler akzeptiert wird.
Ein Maß für Verfahrensinhärente Fehler ist der Störpegel, der durch das Untersuchen von Blindproben gemessen werden kann. Diese Abweichungen vom eigentlich zu erwartenden Basispegel (meist Null) entstehen beispielsweise durch die Brownsche Molekularbewegung bei der Waage oder das Rauschen in der Elektronik, Verunreinigungen der Reagenzien, Nebenreaktionen, Absorption an Gefäßwänden, Temperaturschwankungen der Lichtquelle bei der Spektroskopie.
Hier muß eine Grenze gezogen werden, bei der gemessene Werte noch als sinnvoll anerkannt werden können; diese Grenze ist die Nachweisgrenze. Sie erhält man, indem man zahlreiche Blindproben mißt, den Mittelwert und die Standardabweichung ermittelt. Zu 99,9% hat man kein Störsignal gemessen, wenn man die Nachweisgrenze um drei Standardabweichungen oberhalb des Mittelwertes festgelegt. Die Nachweisgrenze sagt daher aus, daß ein Meßwert in diesem Bereich zu 99,9% keine Störung ist, sondern durch die zu bestimmende Komponente verursacht wurde.
Nun ist allerdings jeder Meßwert an der Nachweisgrenze mit einer großen Streuung behaftet, dementsprechend ist seine Standardabweichung sehr groß. Dies führt zu einer seltsamen Schlußfolgerung: zwar sagt ein Meßsignal an der Nachweisgrenze aus, daß dieser Stoff sicher vorhanden ist - aber kein Meßsignal zu haben, bedeutet nicht die Abwesenheit dieses Stoffes. Aufgrund seiner Standardabweichung kann sein Meßsignal auch unterhalb der Nacheisgrenze liegen und wird damit nicht erfasst oder nicht anerkannt! Insgesamt wird man nur in 50% aller Fälle ein Meßsignal über der Nachweisgrenze erhalten.
Um nun in 99,9% aller Fälle, in denen eine Komponente vorliegt, ein positives Ergebnis zu finden, wurde die Bestimmungsgrenze definiert: sie liegt um sechs Standardabweichungen über dem Blindwert.
Grundsätzlich lassen sich alle Fehler in den folgenden Kategorien erfassen:
1. Instrumentelle Fehler
2. Methodische Fehler
3. Handhabungsfehler
4. Menschliche Fehler
Das Analysenresultat soll nun kritisch betrachtet werden, dabei fließen die bisherigen Ausführungen über Fehler mit ein. Vorab sei nochmals daran erinnert, daß
Der gesuchte wahre Wert ist zwar eindeutig und unveränderlich, jedoch leider unbekannt. Das prinzipiell fehlerbehaftete Analysenergebnis nähert sich diesen Wert an. Durch die Fehleranalyse läßt sich der Bereich um den ermittelten Wert angeben, in dem der wahre Wert mit 95% oder 99%- oder 99,9%-iger Sicherheit zu finden ist - den Vertrauensbereich.
Die Abweichung des Meßwertes x vom wahren Wert u nennt man den absoluten Fehler: x - u = Fa Da der wahre Wert aber unbekannt ist, kann der absolute Fehler nicht auf diese Weise ermittelt werden; die Verfahren, ihn dennoch zu erhalten, werden im folgenden geschildert. Sie unterscheiden sich je nachdem, ob Einzel- oder Wiederholungsmessungen vorliegen.
Bei Einzelmessungen erhält man den absoluten Fehler am sichersten durch eine kritische Prüfung des Verfahrens. Dies beinhaltet aufwendige Kontrollmessungen und eine entsprechende statistische Auswertung. Lohnen wird sich dieser Aufwand vermutlich nur, wenn das Verfahren zur Serienanalyse eingesetzt wird. Hat der Analytiker bereits lange Erfahrung mit dem Verfahren, so ist auch das Schätzen zugelassen. Handelt es sich um ein älteres oder bekanntes Verfahren, so besteht die Möglichkeit in der Literatur auf eine Angabe des absoluten Fehlers zu stoßen. Eventuell finden sich im Handbuch auch Angaben des Geräteherstellers. Als unverzichtbares Minimum ist allerdings die Angabe der Ablesefehler aller verwendeten Meßgeräte erforderlich! Die beste Möglichkeit, den absoluten Fehler zu ermitteln und gleichzeitig zu verringern, ist die Wiederholungsmessung ist! Damit ermittelt man den absoluten Fehler als Standardabweichung s.
Meist wird sich der Analytiker damit begnügen, nur einmal zu pipettieren, zu titrieren oder abzuwiegen. Jeder dieser Meßwerte gilt dann als Einzelmessung. Ein solcher Wert wird nur mit so vielen (signifikanten, tragenden) Ziffern angegeben, wie es der absolute Fehler noch zuläßt. Der absolute Fehler ist dann beispielsweise der Pipettenbeschriftung oder Tabellen über die Genauigkeit von Pipetten zu entnehmen; bei Waagen macht der Hersteller meist Angaben über den absoluten Fehler in den verschiedenen Wägebereichen; bei Zeigerinstrumenten gilt meist der kleinste Skalenabstand als absoluter Fehler. Wert und Fehler werden immer zusammen angegeben:
1,6483 g +/- 0,0001 g 5 signifikante Ziffern Unmittelbar vor oder hinter dem Komma stehende Nullen gelten als nicht signifikant, da sie nicht gemessen wurden: bei der Umwandlung in Zehnerpotenzen verschwinden sie. 0,0164 = 1,64 10-2 3 signifikante Ziffern 0,00016 = 1,6 10-4 2 signifikante Ziffern Nullen, die zwischen den Ziffern oder unmittelbar hinter der letzten Ziffer stehen, sind signifikant, da sie gemessen wurden. 36,608 5 signifikante Ziffern 641,0 4 signifikante Ziffern
Wird das Analysenresultat aus mehreren Meßwerten berechnet, so bestimmt der ungenaueste Meßwert die Genauigkeit des Ergebnisses: hat der ungenaueste Meßwert drei signifikante Ziffern, so darf auch das Analysenresultat nur mit drei Ziffern Genauigkeit angegeben werden! Dieses Signifikanzverfahren ist eine Schätzung, die nach Regeln abläuft und keine mathematische Ermittlung des Fehlers: sie verhindert lediglich eine allzu große, unbegründete Genauigkeit.
Um im Resultat für den absoluten Fehler exakte Zahlen anzugeben, müssen nicht nur alle Teilfehler bei allen Teilmessungen berücksichtigt werden. Es muß auch berücksichtigt werden, wie sich diese Teilfehler durch die Berechnungen fortpflanzen. Dies sei an enem einfachen Beispiel illustriert:
Tiegel mit Inhalt 25,3692 g +/- 0,0001 g Tiegel, leer 25,2346 g +/- 0,0001 g Masse des Inhalts 0,1346 g +/- 0,0002 g
Es wird deutlich, daß sich die Fehler (bei Strichrechnung) addieren - egal, ob es sich dabei um Addition oder Subtraktion handelt. Mathematisch läßt sich das folgendermaßen schreiben:
E = x + y + z E = Endergebnis E+ E = x + x + y + y + z + z E = Fehler des Ergebnisses E = x + y + z x = Fehler der Einzelwerte + E+ E = E ( x + y + z ) -
Bei Punktrechnung gilt:
x + y E = z x y z E = ( + + ) E x y z
Beispiel: Eine Analyse erbringt folgende Zwischenergebnisse:
Auswaage = 0,1346 g 0,0002 g Einwaage = 1,0898 g 0,0002 g Faktor = 0,2394 0,0001 Auswaage x Faktor Analysenresultat = Einwaage 0,1346 g x 0,2394 = = 0,0295680 1,0898 g 0,0002 0,0002 0,0001 Fehlerfortpflanzung= ( + + ) x 0,029568 g = 0,000062 g 0,1346 1,0898 0,2394 + Analysenresultat = 0,00295 g 0,00006 g -
Ein zahlenmässiges »Ergebnis« ohne Kontext ist nicht vertrauenswürdig. Die Aussagekraft eines Ergebnisses lässt sich einschätzen, wenn es begleitet wird von Angaben zur Messwertverarbeitung, also: