ISBN-13: 9783639397178 / Niemiecki / Miękka / 2012 / 72 str.
Innerhalb der letzten Jahre stieg die Anzahl der im Unternehmen gesammelten Informationen stark an. Dies ist ein Resultat der zunehmenden Komplexitat und der schnellen Veranderungen in der heutigen Marktwirtschaft. Aus diesem Grund versuchen Unternehmen durch intensive Informationsgewinnung und -Verarbeitung einen Wettbewerbsvorteil zu erreichen. Jedoch stellte sich alsbald heraus, dass das reine Sammeln, Bereitstellen und Archivieren von Daten nur massig Erfolg hatte. Somit wurden Moglichkeiten gesucht, diese Flut von Informationen zu Filtern und nach vorgegebenen Kriterien auszuwerten. In den letzten zehn Jahren haben sich dafur Techniken wie On-Line Analytical Processing und das Data Mining entwickelt. Um diese Moglichkeiten sinnvoll und effektiv zu nutzen, mussen die verwendeten Datensatze frei von Fehlern sein. Allerdings passieren bei der Erfassung dieser Daten regelmassig Fehler, sei es durch Kommunikationsfehler oder durch Fehleingaben von Anwendern. Dadurch entstehen hohe Kosten und Ressourcenauslastungen, wenn z.B. Kunden mehrfach angeschrieben oder durch falsche Erfassung von Kennzahlen eventuell Umsatze falsch berechnet werden. Um solche Dubletten zu bereinigen, werden phonetische Algorithmen eingesetzt. Schlussendlich konnen Unternehmen durch den Einsatz dieser Algorithmen Kosten sparen und ihre Datenbestande effektiver Nutzen."
Innerhalb der letzten Jahre stieg die Anzahl der im Unternehmen gesammelten Informationen stark an. Dies ist ein Resultat der zunehmenden Komplexität und der schnellen Veränderungen in der heutigen Marktwirtschaft. Aus diesem Grund versuchen Unternehmen durch intensive Informationsgewinnung und -Verarbeitung einen Wettbewerbsvorteil zu erreichen. Jedoch stellte sich alsbald heraus, dass das reine Sammeln, Bereitstellen und Archivieren von Daten nur mäßig Erfolg hatte. Somit wurden Möglichkeiten gesucht, diese Flut von Informationen zu Filtern und nach vorgegebenen Kriterien auszuwerten. In den letzten zehn Jahren haben sich dafür Techniken wie On-Line Analytical Processing und das Data Mining entwickelt. Um diese Möglichkeiten sinnvoll und effektiv zu nutzen, müssen die verwendeten Datensätze frei von Fehlern sein. Allerdings passieren bei der Erfassung dieser Daten regelmäßig Fehler, sei es durch Kommunikationsfehler oder durch Fehleingaben von Anwendern. Dadurch entstehen hohe Kosten und Ressourcenauslastungen, wenn z.B. Kunden mehrfach angeschrieben oder durch falsche Erfassung von Kennzahlen eventuell Umsätze falsch berechnet werden. Um solche Dubletten zu bereinigen, werden phonetische Algorithmen eingesetzt. Schlussendlich können Unternehmen durch den Einsatz dieser Algorithmen Kosten sparen und ihre Datenbestände effektiver Nutzen.