Die Herausforderung der Technologieüberwachung liegt heute weniger in der Suche nach Informationen als vielmehr in der Sortierung und Organisation der verfügbaren Daten und Informationen.
Patente, wissenschaftliche Veröffentlichungen, Forschungsprojekte, institutionelle Berichte, Webquellen und Branchenneuigkeiten sammeln sich an und verbreiten sich in einem Tempo, das die analytischen Fähigkeiten des Menschen bei weitem übersteigt.
Illustration in der Kosmetik
In der Kosmetikindustrie werden monatlich weltweit fast 2.000 neue Patente veröffentlicht – ein Beweis für ständige Innovation und einen intensiven Wettlauf um Neuheiten.
Noch dramatischer ist die Informationsflut im Bereich der künstlichen Intelligenz: Monatlich erscheinen über 50.000 wissenschaftliche Artikel zu diesem Thema.
Diese Informationsflut, auch „Infobesity“ genannt, erschwert die Auswahl, Analyse und Priorisierung relevanter Inhalte. Forschungs- und Entwicklungsteams sehen sich einem nahezu ununterbrochenen Informationsstrom gegenüber.
In diesem Kontext besteht die Herausforderung nicht mehr nur im Zugang zu Informationen, sondern auch in der Fähigkeit, diese zu sortieren, zu strukturieren und zu analysieren. Wie können Sie diese riesigen Mengen heterogener Daten nutzen, ohne Ihre Tage mit der manuellen Sortierung zu verbringen? Wie können Sie Informationsrauschen und blinde Flecken vermeiden?
Anders als der Hype vermuten lässt, hat generative KI die traditionellen Ansätze der künstlichen Intelligenz nicht verdrängt und wird dies aus mindestens drei Gründen auch nicht tun:
- Traditionelle Methoden liefern in klar definierten Kontexten und mit strukturierten Daten hervorragende Ergebnisse. Um eine vergleichbare Leistung zu erzielen, wären für generative KI entweder sehr große Modelle oder sehr aufwendiges Nachtraining erforderlich.
- Die Ergebnisse generativer KI sind sehr schwer zu interpretieren, im Gegensatz zu klassischen Modellen, die eine echte Erklärbarkeit ermöglichen.
- Klassische Modelle sind weniger anfällig für Schwankungen und ihre Ergebnisse sind zuverlässiger, im Gegensatz zu generativen KI-Modellen, deren Robustheit problematisch sein kann (zum Beispiel aufgrund von Halluzinationen).
Generative KI bietet somit viele nützliche und interessante methodische Werkzeuge. Aus Effizienzgründen einerseits und aufgrund ihrer hohen Umweltkosten (ein Thema, mit dem sich TKM intensiv auseinandersetzt), ergänzt dieser Beitrag jedoch traditionelle Ansätze und ersetzt sie nicht.
Die von TKM entwickelte Lösung basiert auf einem rigorosen Ansatz, der auf einer ausgewogenen Mischung beruht und einerseits den Einsatz von KI kombiniert, wenn diese wirklich sinnvoll ist , und andererseits Data Mining auf technologische Literatur anwendet.
Es ist das Ergebnis von mehr als 20 Jahren anerkannter Expertise, verbunden mit einer echten Innovationskraft und der Fähigkeit, neue Technologien zu integrieren – nicht wegen ihrer Neuheit, sondern wegen ihrer Nützlichkeit.
Durch den Einsatz strukturierter Suchstrategien, Expertensysteme und, falls erforderlich, ergänzt durch Bausteine der künstlichen Intelligenz, wandelt die Überwachungs- und Analysesoftware von TKM große Mengen an Rohdaten in Informationen um, die von Forschungs- und Entwicklungsteams, Teams für gewerbliches Eigentum und Innovationsteams genutzt werden können.
Die Grundlagen verstehen: Data Mining, die Basis der Technologieüberwachung
Data-Mining, das Rückgrat der groß angelegten Informationsbeschaffung
Seit 25 Jahren hat sich Data Mining als Grundlage für die groß angelegte Informationsbeschaffung etabliert, und das ist kein Zufall.
Data- Mining umfasst alle Techniken zur Untersuchung, Bereinigung und Strukturierung großer Datenmengen, um daraus nützliche Informationen zu gewinnen. Im Kontext der Wettbewerbsanalyse beinhaltet dies die Identifizierung von Trends, thematischen Gruppierungen, aufkommenden Problemen oder schwachen Signalen.
In unserer über 20-jährigen Praxis der Technologiebeobachtung zeigt sich immer wieder eine Beobachtung: Nur ein Bruchteil der gesammelten Informationen hat echten strategischen Wert. Erfahrungsgemäß sind lediglich 10 bis 15 % der gesammelten Dokumente tatsächlich relevant für die Analyse und Entscheidungsfindung.
Die Rolle des Data-Mining besteht genau darin, diese Lücke zwischen Datenfülle und Nutzen zu schließen. Es ermöglicht uns Folgendes:
- Informationsrauschen reduzieren, ohne die Vollständigkeit zu beeinträchtigen,
- Duplikate entfernen,
- schwache Signale erkennen,
- Strukturieren und organisieren Sie die Daten nach relevanten Kriterien
- Erstellung eines nutzbaren Korpus für die Analyse (menschlich und computergestützt)
Ohne diese Vorarbeit wird das Monitoring schnell unüberschaubar, unabhängig von der Leistungsfähigkeit der eingesetzten Tools. Roboter und andere Crawler überfordern Sie rasch mit einer Flut unübersichtlicher Informationen und lenken Ihre F&E-Teams von einer Aufgabe ab, die für ihren Beruf dennoch unerlässlich ist: stets über den aktuellen Stand der Technik, den Wettbewerb und die Handlungsfreiheit informiert zu sein!
→ Lesen Sie auch – Aufbau eines Dokumentenarchivs: Sammeln von Daten, die für technologische oder wettbewerbsbezogene Analysen nützlich sind
Expertensysteme: Geschäftsorientierte Intelligenz
Die Informationsbedürfnisse, die Art der verarbeiteten Daten und der Zweck eines Forschungs- und Entwicklungsteams, einer IP-Abteilung oder auch eines auf Innovation und offene Innovation ausgerichteten Teams sind nicht gleich.
Die für die einzelnen Bedürfnisse geeigneten Behandlungen sind nicht immer dieselben, und die Arbeitsabläufe unterscheiden sich mitunter stark.
Die Strukturierung von Daten für ein Luftfahrtunternehmen hat wahrscheinlich keinen Bezug zu derjenigen, die für ein großes Pharmaunternehmen oder ein KMU im Bereich der Feinmechanik nützlich ist.
Anders als magische Werkzeuge und der von jedem seriösen Analysten verabscheute „Black-Box-Effekt“ stellen Expertensysteme den ersten Schritt zur operativen Implementierung von Intelligenz innerhalb der TKM-Plattform . Sie basieren auf Data-Mining-Prinzipien, d. h. auf expliziten Regeln, die von jedem Benutzertyp konfiguriert werden können: Boolesche Abfragen, Proximity-Operatoren, Geschäftsfilter, Thesauri und Klassifizierungskriterien, Datenbereinigung und -normalisierung usw.
Dieser Ansatz ist besonders effektiv, wenn die Relevanzkriterien klar und leicht identifizierbar sind: Zieltechnologien, Dokumentarten, zu überwachende Akteure, geografische Gebiete, Anwendungsbereiche.
Expertensysteme ermöglichen dann niedrigere Kosten1 :
- einen Geschäftsbedarf in eine formalisierte Suchstrategie umwandeln,
- um die vollständige Kontrolle über die Überwachungsbereiche zu behalten,
- um die Sortierung, Klassifizierung und Verbreitung von Informationen zu automatisieren.
Sie bieten einen hervorragenden Kompromiss zwischen Leistung, Transparenz und Kostenkontrolle und lassen sich gleichzeitig leicht an veränderte Bedürfnisse anpassen.
Wenn Data Mining an seine Grenzen stößt: Der gezielte Beitrag von Präzisions-KI
Nicht alle Datenverarbeitungsvorgänge lassen sich allein durch explizite Regeln problemlos bewältigen. Sobald die Bestimmung dieser Regeln komplex wird, stößt das Data-Mining an seine Grenzen.
Nehmen wir ein Beispiel!
Ihr Unternehmen, Ihr Industriezweig oder Ihre eigene Strategie basiert auf der Einhaltung von Umweltkriterien bei der Entwicklung und Herstellung Ihrer Produkte.
Es ist daher legitim, dass Ihr Monitoring Innovationen, Produkte oder Patente Dritter (z. B. von Wettbewerbern oder Startups), die unter diese „umweltfreundlichen“ Kriterien fallen, prioritär hervorhebt und Ihren F&E-Teams zur Kenntnis bringt.
Doch wie definiert man all diese Kriterien auf absolut erschöpfende Weise und übersetzt sie in ein Regelsystem innerhalb des eigenen Überwachungstools? Das dürfte kompliziert oder sogar völlig unmöglich sein.
Es gibt tausendundeine Möglichkeiten, diesen Begriff der ökologischen Verantwortung zu beschreiben: biologisch abbaubar, chemikalienfrei, weniger energieintensiv, frei von Seltenen Erden, bessere CO2-Bilanz usw.
Hier kann die präzise und maßgeschneiderte KI von TKM eine entscheidende Rolle spielen und eine Genauigkeit erreichen, die von Data Mining und/oder generischer KI nicht erreicht wird. Die Modelle werden anschließend anhand historischer Daten trainiert, die entsprechend dem jeweiligen Anwendungsfall annotiert werden.

Wir bei TKM sind der festen Überzeugung, dass KI in diesen komplexen Fällen eine echte, ergänzende Alternative zu Expertensystemen , die auf Data-Mining basieren. Sie ersetzt diese nicht, sondern erweitert sie.
Wir sind aber gleichermaßen davon überzeugt, dass generische KI allein (ChatGPT ist hierfür das beste Beispiel) und das magische Versprechen eines Modells, das mit drei Klicks und vier Likes zufriedenstellende Ergebnisse liefert, nicht funktionieren!
Aus diesem Grund basiert die von TKM entwickelte und angebotene Präzisions-KI auf der Verarbeitung generischer KI-Modelle (Klassifizierung, Clustering, Entitätserkennung) und groß angelegter Sprachmodelle (LLMs), beinhaltet aber vor allem einen vorbereitenden Personalisierungsschritt. Erst dann kann man von Präzisions-KI (oder personalisierter KI) im Bereich Competitive Intelligence sprechen.
Unsere KI wird anhand spezifischer, von Nutzern bereitgestellter Anwendungsfälle trainiert
TKM-Software: Eine Plattform für die Datenanalyse im Wettbewerbsumfeld
Ein „Data Lake“, der für die 360°-Erkundung konzipiert wurde
Das Herzstück der TKM-Plattform ist ein DataLake, der von einer beispiellosen Vielfalt an Quellen gespeist wird:
- weltweite Patente,
- wissenschaftliche Publikationen
- Forschungsprojekte und Kooperationsprojekte,
- klinische Studien,
- Webquellen und Branchennachrichten,
- globale Datenbank innovativer Startups und KMUs,
- Globale Datenbank akademischer Akteure und wichtiger Gruppen.
Nutzer können präzise nach Thema, Quelle, Autor, Organisation oder Zeitraum ausrichten. Spezialisierte Crawler ermöglichen es Nutzern außerdem, bestimmte Institutionen oder Feeds zu verfolgen, beispielsweise Förderorganisationen, Universitäten oder Forschungszentren.
Diese Fülle an Daten ist unerlässlich für die Entwicklung effektiver Aufklärungsstrategien und die frühzeitige Erkennung schwacher Signale. Dies wird durch eine geschickte Kombination von Expertensystemen und dem gezielten Einsatz von KI erreicht.
Menschliche Unterstützung zur Strukturierung des Ansatzes
Die Effektivität von Wettbewerbsanalysen hängt von der Leistungsfähigkeit der Tools ab, noch wichtiger jedoch von der Methodik. Deshalb unterstützt TKM Unternehmen von Anfang an: bei der Klärung der Problemstellungen, der Ausarbeitung eines Wettbewerbsanalyseplans und der Definition von Suchstrategien.
Ziel ist es, ein strategisches Problem in ein operatives System zu übersetzen.
Je nach Bedarf können die Monitoring-Teams autonom arbeiten oder (bei Bedarf oder im Laufe der Zeit) unterstützt werden, um die Regeln, Anwendungsbereiche und Prozesse anzupassen und zu erweitern.
→ Lesen Sie auch – TKM: Doppelte Expertise für KI im Dienste des gewerblichen Rechtsschutzes
Technologieüberwachung im Zeitalter der KI neu denken
Von der Rohabfrage zu strukturierten Informationen: Data Mining in der Praxis auf der TKM-Plattform
Schritt 1: Formulieren Sie eine präzise und umfassende Suchstrategie
Alles beginnt damit, dass man sein Bedürfnis äußert.
Auf der TKM-Plattform werden Nutzer Schritt für Schritt von der Formulierung ihrer Suchanfragen in natürlicher Sprache zu einer strukturierten Suchstrategie geführt: Priorisierung von Schlüsselwörtern, logische Operatoren und Filterkriterien. Dieser Schritt ist entscheidend, um zwei häufige Fehler zu vermeiden: zu weit gefasste Suchanfragen, die zu vielen irrelevanten Ergebnissen führen, oder zu restriktive Suchanfragen, die Lücken in den Suchergebnissen verursachen.
Schritt 2: Bereinigen, anreichern und strukturieren Sie die gesammelten Daten
Sobald die Daten gesammelt sind, kommen Data Mining und KI zum Einsatz.
Filter-, Klassifizierungs- und Tagging-Algorithmen reduzieren die Menge irrelevanter Dokumente und strukturieren Inhalte gemäß den mit dem Kunden abgestimmten Kriterien. Falls erforderlich, ergänzen trainierte Modelle diesen Schritt, wenn die Datenanalyse an ihre Grenzen stößt.
Schritt 3: Informationen für Analyse und Kapitalisierung organisieren
Die relevanten Informationen werden anschließend in thematischen Ordnern organisiert, die automatisch oder manuell befüllt werden. Die Klassifizierungskriterien sind vollständig anpassbar: Thema, Quelle, Datum, Art des Akteurs usw.
Diese Struktur erleichtert die Analyse, die gezielte Verbreitung und die langfristige Nutzung von Wissen. Im Bereich der Wettbewerbsanalyse könnte ein Kriterium für die Datenorganisation eine Liste von Wettbewerbern sein, kategorisiert nach Akteurstyp oder geografischem Gebiet.
Die kombinierte Nutzung von Data Mining und KI ist ein echter Wendepunkt
Zum Kern der Sache vordringen, ohne das Gesamtbild aus den Augen zu verlieren
Data-Mining ermöglicht die schnelle Extraktion wertvoller Inhalte Datenmengen . Fortschrittliche Verarbeitungstechniken ermöglichen zudem die Erstellung von Synthesen, Zusammenfassungen und Antworten auf in natürlicher Sprache gestellte Fragen innerhalb eines strukturierten Korpus.
Erkennung impliziter Konzepte und schwacher Signale
Wenn explizite Regeln nicht mehr ausreichen, verbessert KI das Data-Mining durch die Erkennung nicht explizit formulierter Konzepte. Diese Fähigkeit ist besonders nützlich, um schwache Signale oder aufkommende Trends an der Schnittstelle mehrerer Domänen zu identifizieren.
Strukturierte Überwachung im Zeitverlauf
Die Informationsprojekte werden in von den Nachrichtendienstteams festgelegten Abständen aktualisiert. Die Empfänger der Informationen haben jederzeit Zugriff auf strukturierte, aktuelle Daten, die sofort genutzt werden können. Diese Nutzung ist nachhaltig, da die Zusammenführung von Wissen und die Interaktionen der Teams anhand der Datensätze einen echten immateriellen Vermögenswert für das Unternehmen darstellen.
Konkretes Beispiel: die Nutzung von Data Mining für kollaboratives Monitoring
Ein Industrieunternehmen im Agrar- und Lebensmittelsektor möchte die wissenschaftliche und technologische Literatur (hauptsächlich Patente, wissenschaftliche Artikel und Start-up-News) zum Thema Fermentation auf internationaler Ebene und monatlich beobachten.
Der Zufluss beträgt ungefähr 800 neue Dokumente pro Monat, die sortiert werden müssen .
Trotz einer sorgfältig verfeinerten Suchstrategie mit den TKM-Teams bleibt die Menge an uninteressanten Dokumenten hoch (unsere berühmte 10%-Regel) und erfordert eine vorherige Sortierung vor der Durchführung einer automatischen Klassifizierung (insbesondere nach Hefetyp und Anwendungsgebieten).
Bei 2 Minuten pro Dokument entspricht das theoretisch 3 Arbeitstagen – und das nur für die Bereinigung der eingehenden Daten! Und das muss jeden Monat erfolgen…
Das sind fast anderthalb Monate Arbeit pro Jahr für mühsame Arbeit, die keinen strategischen Mehrwert schafft.
Und sich nur auf ein Überwachungsthema zu konzentrieren, wenn dieses Unternehmen mindestens ein halbes Dutzend weitere überwachen muss…! Das ist nicht machbar.
In diesem speziellen Fall sind die Kriterien, anhand derer interessante Informationen unterschieden werden können (Geschäftsregeln), glücklicherweise recht einfach, ebenso wie die Regeln für die Klassifizierung von Nachrichten im internen Wissens- und Kollaborationssystem.
Mit nur wenigen Tagen Vorarbeit ein auf diesen Regeln basierendes System mit einer vom Hersteller als zufriedenstellend erachteten Genauigkeit implementiert werden.
Die so implementierte und ausschließlich auf Data Mining basierende Lösung bietet einen voll funktionsfähigen Service mit minimalen Implementierungskosten. Die Verarbeitungszeiten für das Sortieren, Bereinigen, Anreichern und Klassifizieren der Daten liegen im Bereich von wenigen Sekunden pro neuer Information. Ein Benachrichtigungssystem für sie relevantesten Neuigkeiten.
Es kann jedoch vorkommen, dass ein System, das ausschließlich auf Geschäftsregeln basiert, keine zufriedenstellende Genauigkeit .
Typischerweise sollte in solchen Situationen der Einsatz von maschinellem Lernen und das Training einer präzisen KI in Betracht gezogen werden, um letztendlich den gleichen Service (automatische und sofortige Verarbeitung) zu bieten und die Forschungs- und Entwicklungs- oder IP-Teams des Unternehmens sinnvoll zu unterstützen.
Abschluss
Effektives Technologiemonitoring beruht in erster Linie auf dem gezielten und strukturierten Einsatz der richtigen Data-Mining-Tools, getrieben von den Geschäftszielen und unterstützt durch menschliches Fachwissen im Bereich Monitoring.
Ohne dieses Rückgrat können weder KI noch menschliches Fachwissen verlässliche und umsetzbare Analysen liefern.
Durch die Kombination von Data Mining, Expertensystemen und gezielten Beiträgen der künstlichen Intelligenz bietet TKM einen pragmatischen und nachhaltigen Ansatz für das Technologiemonitoring, der auf die realen Herausforderungen innovativer Organisationen abgestimmt ist.
Benötigen Ihre Teams besser lesbare, strukturiertere und wirklich umsetzbare Informationen? Kontaktieren Sie das TKM-Team und erfahren Sie, wie Sie Data Mining und personalisierte KI für Ihre Innovationsentscheidungen nutzen können.
2. Sowohl wirtschaftlich als auch ökologisch.


