Finden Sie schnell cyber-sicherheitsanalyse für Ihr Unternehmen: 2 Ergebnisse

Continuous-Flow Analytik (CFA)

Continuous-Flow Analytik (CFA)

Wird auch als Segmentierte Fließanalyse (SFA) bezeichnet, zur besseren Abgrenzung gegenüber der FIA Technik. Einschlägige DIN ISO Normen definieren: "Fließanalysenverfahren automatisieren naßchemische Bestimmungsverfahren mit hoher Analysenfrequenz (bis 100 Proben/h). Es wird zwischen der Fließinjektionsanalyse (FIA) und der kontinuierlichen Durchflussanalyse (CFA) unterschieden. CFA ist im Vergleich die leistungsfähigere Technik und bietet dem Anwender wichtige Vorteile bei der Durchführung von Routineanalytik. Die segmentierte Fließanalyse bietet darüber hinaus bewährte Lösungen zu aufwändigen Messverfahren mit Destillation, integriertem Probenaufschluss oder auch Dialyse zur Abtrennung von Probenmatrix. Wie arbeitet CFA Fließanalyse? Jeder Analysenparameter ist auf einer Analytik-konsole separat aufgebaut. Jede vom Proben-nehmer angesaugte Probe oder Kalibrierlösung fließt anteilig in alle Analysenmodule, zur simultanen Durchführung aller Bestimmungsmethoden. Die Ansaugung der nächsten Probe nach 60sec ergibt eine Analysenfrequenz von 60 Proben je Stunde, eine Abfolge von 90sec würde 40 Proben/h ergeben. Die Ansaugung der Nulllösung zum Auswaschen jeder Probe zwischendurch ist in diesem Ablaufschema enthalten. Segmentierte Fließanalyse gewährleistet beste Trennung zwischen aufeinanderfolgenden Proben auch bei zeitaufwendigen Probenvorbereitungs- und Reaktionsschritten. Die Anzahl der Proben/h multipliziert mit der Anzahl der simultanen Bestimmungen ergibt die Summe der Analysen je Stunde am CFA Analysator. Moderne Microflow Systeme verbinden übersichtliche Bedienung und kompakte Bauform mit integrierten Reagenz-behältern. Neueinsteiger in die Anwendung der CFA Technik gründen Ihre Entscheidung heute meist auf die Effizienz der integrierbaren Probenverarbei-tungsschritte. Der Wegfall von manuellen Proze-duren für den Aufschluss organischer Nährstoff Verbindungen, der Entfall manueller Destillation für Cyanid, Phenolindex oder Fluorid, oder automatisierte Extraktion von MBAS gewährleistet die hohe Wirtschaftlichkeit einer Investition in die CFA Technik. Erfahrene Anwender von CFA Analytik wiederum kaufen neue Analysensysteme um alte Geräte nach einer Betriebszeit von 15 Jahren oder mehr zu erneuern, oder auch um zusätzliche Aufgaben mit neuer Hardware durchzuführen. Die PC Station für Systemsteuerung und Datenverarbeitung verwendet leistungsfähige Software, welche 20 Jahre Erfahrung in CFA Auswertung unter vielen PC Betriebssystemen beinhaltet. Automatische Speicherung aller Daten zur Nachvollziehbarkeit der Analytik, integrierte Prozeduren für Qualitätssicherung, die Berechnung und Ergebnisdokumentation am PC mit Datentransfer ergeben einen weiteren nicht zu vernachlässigenden Einsparungseffekt gegenüber manuellen Verfahren. Technische Daten eines CFA Analysators: • Fließtechnik Makroflow oder Mikroflow • Probennehmer seriell 52/104 Positionen oder XY240. Diluter als Option. • Multikanal Dosierpumpe mit 12 Positionen, Segmentierung mit Luft oder N2 • Methoden 'Manifold' mit individuellen Zusatzmodulen (Verdünnung, Inkubation, Dialyse, Destillation, UV Aufschluss, Hydrolyse, u.a.) • Individuelles Filterphotometer je Analysenmodul, Lichtweg 10-50mm • Durchflussmesszelle mit Entlüftung (Debubbling). Bubble-gating als Option. • Hochwertige Photometerelektronik, integrierte Präzisionslinearisierung 7 Dekaden • PC Station mit Steuer- und Auswertesoftware Weitere Informationen als pdf öffnen zurück zum Seitenanfang
Big Data Analysen

Big Data Analysen

Big Data ist ein populäres Schlagwort, bei dem es eigentlich darum geht, dass Data Mining Verfahren (=Analytics) in geschickter Weise auf besonders große Datenmengen (=Big Data) angewendet werden. Die Kunst dabei liegt aber nicht nur in der Handhabung von großen Datenmengen sondern vielmehr in der Auswahl der richtigen Daten bzgl. Menge und Inhalt, sodass es im Idealfall gar nicht mehr zu übergroßen und unnötig teuren Datenbeständen kommt, trotzdem aber noch der volle Nutzen der daten- und beispielbasierten Vorgehensweise realisiert werden kann. ANDATA setzt dabei auf einen integralen Ansatz, bei welchem die Themenpunkte "Daten" und "Analyse" nicht sequentiell nacheinander angegangen werden, sondern in einem integralen, iterativen Ansatz, bei welchem die Data Mining Methodik auch schon frühzeitig für die Spezifikation und kontrollierte Erweiterung der Datenbasis eingesetzt wird. Dadurch ist sichergestellt, dass man keine unnützen und überdimensionierten, kostenintensiven Datengräber erzeugt, sondern genau jene Daten in Menge und Inhalt bekommt, welche für eine valide Modellbildung und Entscheidungsunterstützung benötigt werden. Bei Wahl der "richtigen Daten" benötigt man idealerweise gar nicht mehr unbedingt "Big Data"...