ChatGPT: How smart is the hyped chatbot?
How smart is ChatGPT and can it learn from its mistakes? Our author Prof. Dr. Christian Bauckhage talked some more with the chatbot and put it through an intelligence test.
How smart is ChatGPT and can it learn from its mistakes? Our author Prof. Dr. Christian Bauckhage talked some more with the chatbot and put it through an intelligence test.
Wie intelligent ist ChatGPT und kann es aus seinen Fehlern lernen? Unser Autor Prof. Dr. Christian Bauckhage hat sich weiter mit dem Chatbot unterhalten und hat ihn einem Intelligenztest unterzogen.
ChatGPT ist seit seiner Veröffentlichung in aller Munde. In diesem Beitrag nimmt Prof. Dr. Christian Bauckhage diesen Hype unter die Lupe und erzählt von seinen eigenen Erfahrungen mit dem Chatbot.
ChatGPT has been a buzzword since its release. In this series, Prof. Dr. Christian Bauckhage takes a closer look at this hype and shares his own experiences with the chatbot.
Große Sprachmodelle besitzen ein immenses Transformationspotenzial. Sogenannte Foundation-Modelle können mittlerweile nicht nur die Bedeutung von Texten und Bildern erfassen und selbst erzeugen, sondern sind auch auf Videos anwendbar.
Die Verbesserung der Vorhersagequalität von gelernten ML-Modellen führt zu Verfahren mit hohem Energieverbrauch. Eine neue Methode ermöglicht die Ermittlung von Energieeffizienz im ML, sowie eine Darstellung in Form von Energie Labels.
Für die Feiertage haben wir ein paar Lesetipps zusammengestellt. Der ML2R-Blog wird im neuen Jahr mit interessanten Beiträgen rund um Künstliche Intelligenz und Maschinelles Lernen zurück sein.
Künstliche Intelligenz kann die Nachhaltigkeit in der Forschung und Entwicklung fördern. Mit dem gezielten Einsatz im Design of Experiments ist es möglich, Versuche und damit auch Ressourcen einzusparen.
In diesem Beitrag zeigt Autor Eduardo Brito wie die Klassifizierung von Artikeln in Online-Shops automatisiert werden kann und präsentiert anhand eines Anwendungsbeispiels eine ressourcenschonende Lösung.
Der IAIS Evo Annealer ist eine Brückentechnologie für das Quantencomputing. Mit seiner Energieeffizienz und der Möglichkeit, große mathematische Probleme zu lösen, ist er schon jetzt in der Praxis anwendbar.
Die Landwirtschaft ist zur Sicherung unserer Lebensgrundlage unerlässlich. Doch wegen des Klimawandels muss sie sich weiterentwickeln: Eine Lösung zur Unterstützung einer nachhaltigen Landwirtschaft 4.0 können autonome Roboter sein, die Felder überwachen.
Agriculture is fundamental to ensure our livelihood. Autonomous robots that can monitor, understand and act on fields have the potential to assist in sustainable agriculture 4.0.
In diesem Beitrag stellt sich der Exzellenzcluster „PhenoRob – Robotik und Phänotypisierung für Nachhaltige Nutzpflanzenproduktion“ der Universität Bonn vor und gibt spannende Einblicke in seine Forschungsfelder rund um die Landwirtschaft 4.0.
In Kooperation mit dem Landesfrauenrat RLP: KI ist längst eine Schlüsseltechnologie. Umso wichtiger ist es, KI-Anwendungen so zu gestalten, dass sie verlässlich & sicher agieren und transparent & zuverlässig mit Daten…
In Kooperation mit dem Landesfrauenrat RLP: In diesem Beitrag gibt Autor Sebastian Müller einen kompakten Überblick über die Facetten der KI und beantwortet die Frage, welche möglichen Grundstrukturen KI-Algorithmen zugrunde liegen.
In Kooperation mit dem Landesfrauenrat RLP: Der Beitrag unserer Gastautor*innen des DGBs NRW skizziert das Thema KI in der Arbeitswelt und beantwortet die Frage, welche möglichen geschlechterspezifischen Auswirkungen sie haben kann.
In Kooperation mit dem Landesfrauenrat RLP: Dieser Beitrag wirft einen Blick auf die Frage wie KI Schulen und Bildungseinrichtungen verändern kann und beleuchtet Möglichkeiten, Grenzen sowie Rahmenbedingungen intelligenter Bildungstechnologien.
In Kooperation mit dem Landesfrauenrat RLP: Dieser Beitrag wirft einen Blick hinter die Kulissen Künstlicher Intelligenz in der Medizin und zeigt, wie KI die medizinische Pflege und Diagnose verändert.
Sogenannte Foundation-Modelle entwickeln sich schnell und können bereits qualitativ anspruchsvolle Aufgaben automatisiert durchführen und unterschiedliche Medien gleichzeitig betrachten. Dieser Beitrag wirft einen Blick hinter die Kulissen der großen Sprachmodelle.
Kommt es zum Schlaganfall, ist eine schnelle Intervention gefordert. Eine Deep Learning Klassifizierung könnte Ärzt*innen unterstützen. In sicherheitskritischen Bereichen wie der Medizin müssen Vorhersagen einer KI jedoch nachvollziehbar sein.
Eine klare Semantik mit Bezug zu Trainingsdaten, Erlernen von Struktur und Parametern, effiziente Inferenz sowie eine vielseitige Anwendbarkeit: Das verbinden Sum-Product Networks in sich – eine neuartige Modellarchitektur des Maschinellen Lernens.
Sprachmodelle mit Milliarden von Parametern können sinnvoll Fragen beantworten und scheinen durch „Lesen“ Text- und Weltverständnis aufzubauen. Ihre Komplexität ist undurchschaubar, aber sie können lernen, sich zu erklären.
Working with research articles is an essential part of academic study. This article presents tools and methods used by ML2R researchers to effectively manage the research process.
Der Umgang mit fachbezogenen Artikeln ist ein essenzieller Teil des wissenschaftlichen Arbeitens. Dieser Artikel stellt Herangehensweisen und Tools vor, welche von ML2R Forscher*innen genutzt werden, um den Forschungsprozess effektiv zu gestalten.
Establishing rigorous testing and certification techniques is essential before deploying new technologies like Deep Learning (DL) in safety-critical applications. We propose a testing approach that could identify weaknesses in DL models.
Vor dem Einsatz neuer Technologien wie Deep Learning (DL) in sicherheitskritischen Anwendungen ist die Einführung strenger Test- und Zertifizierungsverfahren unerlässlich. Wir schlagen einen Testansatz vor, der Schwachstellen in DL-Modellen identifizieren könnte.
Klassifikation ist eines der fundamentalen Denkwerkzeuge im ML. Mit ihm können existierende Lösungen auf neue Probleme übertragen werden. Klassifikatoren lernen, aus Daten Muster zu erkennen und so Daten verschiedenen Klassen zuzuordnen.
Ein modellbasierter Erklärbarkeitsansatz für Punktwolken-Klassifikatoren wird zusammen mit zwei verschiedenen Bewertungsmaßstäben (lokale Treue und Plausibilität), die die Plausibilität des Ansatzes validieren, vorgeschlagen. Das Toolkit ist jetzt online verfügbar.
A surrogate model-based explainability approach is proposed for point cloud classifiers together with two different evaluation metrics validating the plausibility of the approach. The toolkit is now available online.
Der Anwendungsbereich von Convolutional Neural Networks (CNNs) in Industrie und Logistik ist aktuell noch begrenzt, obwohl sie dabei helfen können, unterschiedliche Aufgaben effizient zu automatisieren. Verschiedene Anwendungsmethoden können ihren Einsatz fördern.
Daten werden gesammelt wie nie zuvor, aber wohin damit? Wie kann Datenschutz gewährleistet und gleichzeitig durch datengetriebene Algorithmen Mehrwerte geschaffen werden? All diese Fragen adressiert Gaia-X.
KI-Anwendungen kommen zunehmend in kritischen Bereichen zum Einsatz, in denen Fehlentscheidungen unter Umständen zu Personen- oder Sachschäden führen können. Der Einsatz von Unsicherheitsschätzung kann hier einen Beitrag zu erhöhter Verlässlichkeit leisten.
In den Forschungs- und Entwicklungsabteilungen kann Design of Experiments mit Künstlicher Intelligenz viele Experimente, und damit Zeit, Geld und Ressourcen sparen. Doch wie genau funktioniert es?
Creating financial reports takes a lot of time and is expensive. ART is a new method that should make it possible to convert structured table data from financial reports into text.
In das Erstellen von Finanzberichten investiert ein Unternehmen viele Arbeitsstunden und viel Geld. ART ist ein neues Verfahren, mit dem es möglich sein soll, strukturierte Tabellendaten aus Finanzberichten in Text umzuwandeln.
Maschinelles Lernen ermöglicht das Entwickeln leistungsfähiger Bilderkennungssysteme (Computer Vision), mit denen Informationen aus Bildern und Videos automatisiert erkannt und extrahiert werden können. Insbesondere Deep-Learning-Verfahren haben hierbei einen Vorteil gegenüber traditionellen Methoden.
Bisher erstellen Sprachmodell-basierte Bewertungen von Chatbots nur einen Score über die Gesamtqualität, ohne beispielsweise den Zusammenhang des Dialogs zu beachten. Mit Modellen, die auf GLUE-Aufgaben trainiert sind, hat das ein Ende.
Dialogsysteme sind in Sprachassistenten wie Siri oder Alexa oder in Chatbots auf Social-Media-Plattformen weit verbreitet. Aber woher weiß man, dass der eigens entwickelte Chatbot tatsächlich funktioniert?
Die meisten bereits vorhandenen Knowledge Graphs Embedding Modelle unterstützen oft nur einen einzigen Transformationstyp. Das Modell der 5* Wissensgraph-Einbettung kann jedoch mehrere gleichzeitige Transformationen wie Inversion, Reflexion, Homothetie durchführen.
Die Schätzung von Wartezeiten bei Dienstleistungen ist essenziell für ihre Verbesserung. Durch Generative Adversarial Networks (GANs) können Wartezeiten genau geschätzt werden, mit wenigen oder keinen Annahmen über die tatsächlichen Dienstleister.
Estimating how long we wait for a service is key to improving it. Through GANs waiting times can be accurately estimated, with little to no assumptions about the actual service providers.
Hand-held Geräte und traditionelle Papierunterlagen in der Logistik schränken Mitarbeiter*innen in ihren Bewegungen ein. Das Fraunhofer IML entwickelt als Lösung ein intelligentes Regal, welches der Weg zur intelligenten Mensch-Maschine-Schnittstelle werden soll.
Interessanter als die Prognose von Fehlern ist es für Unternehmen zu verstehen, warum ein konkreter Fehler aufgetreten ist. Eine KI-basierte Root-Cause-Analyse dient dazu, Hinweise auf Fehlerursachen in großen Datenmengen zu finden.
KI-basierte Analysen audiovisueller Daten ermöglichen bereits heute Recherchen in großen Videobeständen. Immer komplexer werdende Suchanfragen erfordern jedoch anspruchsvollere, multimodale Analysemethoden, die in der Praxis oft mit diversen Herausforderungen verbunden sind.
Für die Feiertage haben wir ein paar Lesetipps zusammengestellt. Der ML2R-Blog wird im neuen Jahr mit interessanten Beiträgen rund um Künstliche Intelligenz und Maschinelles Lernen zurück sein.
Damit ein ML-System Widersprüche in Texten erkennen kann, bedarf es eine große Menge an menschenähnlichem Textverständnis. In diesem Beitrag stellen wir Modelle unserer Forschung vor, die dazu in der Lage sind.
Der Einsatz künstlicher intelligenter Systeme erschwert es uns, Personen für Fehlentscheidungen verantwortlich zu machen. Die Einbindung menschlicher Akteure und erklärbarer KI-Systeme ermöglicht eine Verantwortungszuschreibung bei KI-gestützten Entscheidungsprozessen.
Die Entwicklung fairer KI steht vor vielen Herausforderungen. Eine davon: Wie genau sehen eigentlich faire Entscheidungen aus? Diese Frage lässt sich weder mathematisch noch ethisch leicht beantworten.
Hersteller von „Artificial Companions“ versprechen, dass man mit ihren KI-Systemen tatsächlich befreundet sein kann. Ist dies der Weg zur perfekten Freundschaft, oder handelt es sich um eine riskante Illusion?
Die datengesteuerte Sensorinterpretation beim autonomen Fahren kann manchmal zu sehr unplausiblen Vorhersagen führen. Ein teils von Menschen entworfener, teils gelernter Regelsatz kann bestehende tiefe neuronale Netze, die Low-Level-Sensorinformationen verarbeiten, zuverlässig machen.
Das Fuzzy Testing erlaubt kontinuierliche, automatisierte KI-Tests mit moderatem Zeit- und Kostenaufwand, eignet sich für dynamische Entwicklungs- und Einsatzumgebungen und kann eine im Vergleich zu manuellen Verfahren deutlich größere Testraumabdeckung erreichen.
KI-Modelle effektiv prüfen zu können, wird im Hinblick auf ihre wachsende Bedeutung immer wichtiger. Dabei muss eine ganze Reihe besonderer Herausforderungen bewältigt werden, deren Lösung Gegenstand aktueller Forschung ist.
Durch ihr stochastisches Verhalten können Qubits (Quanten-Bits) als Quelle von (echten) Zufallszahlen im Maschinellen Lernen verwendet werden. Forschende des ML2R untersuchten den Einsatz von Quanten-Zufallszahlen zur Initialisierung von maschinellen Lernmodellen.
Wirtschaftsprüfer*innen arbeiten meist noch ohne jegliche Unterstützung von Machine-Learning-Algorithmen. ALI ist ein KI-basiertes Recommender-System, das große Teile des Auditing-Prozesses automatisieren kann und bereits von PriceWaterhouseCoopers GmbH genutzt wird.
Menschen setzen Passwörter meist nicht zufällig, wodurch Systeme anfällig für Angriffe werden. In unserem Forschungsprojekt untersuchen wir Deep-Learning-Modelle, um neue, sicherere Passwörter zu generieren und die IT-Sicherheit in Unternehmen zu testen.
Aus einer Menge von Modellen jenes Modell auszuwählen, welches eine gegebene Aufgabe am besten lösen kann, ist oft ein undurchsichtiger Prozess. Für Zeitreihenvorhersage präsentieren wir ein erklärbares Verfahren für Modellselektion.
Mit der DSGVO trat das Recht auf Vergessenwerden in Kraft. Im Maschinellen Lernen eröffnet gezieltes Vergessen neben Aspekten der Datensicherheit und Privatsphäre auch Potenziale für die Anwendbarkeit und Weiterentwicklung von Lernmodellen.
Das Schreiben von Code ist ein wesentlicher Bestandteil des Alltags eines Data Scientist. Die Snippet Library-Erweiterung dient zur Unterstützung und ermöglicht die schnelle und einfache Entwicklung von Datenanalyse-Workflows.
Bereits in der experimentellen Phase des Maschinellen Lernens können Trainingsvorgänge übersichtlich und nachvollziehbar strukturiert werden. Dieser Beitrag stellt ein hilfreiches Tool für diesen Zweck vor.
Mit der Methode der kleinsten absoluten Abweichung kann eine Regressionsgerade bestimmt und ein Lineares Regressionsmodell so trainiert werden, dass es robust gegenüber Unregelmäßigkeiten – sogenannten „Ausreißern“ – in Daten ist.
Fake News werden als eine der größten Herausforderungen unserer Zeit eingestuft. Aber kann Maschinelles Lernen bei der Erkennung von Fake News unterstützen? Wir zeigen die Grenzen und Potentiale auf.
Lineare Regression, eine grundlegende Technik im Maschinellen Lernen, liefert in Anwendungsfällen schnell gute Ergebnisse. Wir zeigen praxisnah und mit Python Code-Schnipseln, wie man Lineare Regressionsmodelle mittels Methode der kleinsten Quadrate trainiert.
Intelligente Sprachmodelle erhalten beständig mehr Einzug in unseren Alltag und nehmen Einfluss auf uns. Doch sind sie alle nützlich? Können wir sie noch von Menschen unterscheiden oder bedarf es neuer Forschungsansätze?
Bin packing is part of the thoroughly scrutinized class of combinatorial optimization problems. This Blog post applies two practical heuristics to a concrete example and compares their efficacy regarding two criteria.
Bin-Packing gehört zu der viel untersuchten Klasse der kombinatorischen Optimierungsprobleme. In diesem Beitrag verwenden und vergleichen wir zwei praktikable Lösungsstrategien für ein konkretes Beispiel.
Within Computer Vision, humans define how machines interpret the world. Researchers at the Weizenbaum Institute identified power differentials and commercial interests in data annotation that influence how systems learn to “see“.
GANs ermöglichen ohne die Vorgabe von Regeln oder anderem Expertenwissen, allein aus großen Datenmengen neue, domänenspezifische Beispiele zu erzeugen. In diesem Beitrag erklären wir, wie GANs für die Übersetzung genutzt werden.
Nachvollziehbarkeit algorithmischer Entscheidungen ist längst auch über die Forschung hinaus relevant. Wir analysieren, wie Erklärbarkeitsmethoden und externes Wissen zusammenwirken können, um Maschinelles Lernen an gesellschaftliche Anforderungen anzupassen und zu verbessern.
Feindliche Angriffe auf Vorhersagemodelle des Maschinellen Lernens, zum Beispiel beim autonomen Fahren, könnten zu großem (Personen-)Schaden führen. Mit Hilfe von Abwehrmechanismen können ML-Modelle geschützt und ihre Robustheit gegenüber Angriffen erhöht werden.
Software für Maschinelles Lernen ist für bestimmte Angriffe anfällig: So können künstlich veränderte Eingabedaten zum Versagen des zugrunde liegenden Modells führen. Wir stellen Techniken zur Entwicklung von adversarialer Robustheit vor.
Feindliche Angriffe beim maschinellen Lernen zielen darauf ab, Ausfälle in der Funktionalität der Modelle zu verursachen. Dieser Blogpost beschreibt die sogenannten „Adversarial Examples“, die fehlerhafte Vorhersagen neuronaler Netze verursachen.
Klinische Studien enthalten neben objektiven Indikatoren der Patient*innen oftmals subjektive Experteneinschätzungen zum Krankheitsstatus. Um Schwankungen von Expertenwissen zu reduzieren, wird die bestehenden Einschätzungen mit gemessenen Indikatoren anhand einer Ranking SVM kombiniert.
Bei der Anwendung von ML-Lösungen im operativen Betrieb stehen Anwender vor diversen technischen und organisatorischen Herausforderungen. MLOps beschreibt einen ganzheitlichen Prozessansatz, der diese Herausforderungen mit geeigneten Methoden und Werkzeugen löst.
In diesem Beitrag erklären wir den Ansatz der generativen neuronalen Modelle. Diese haben in Anwendungsbereichen, in denen handkuratierte Daten für überwachtes Lernen schwer oder nicht erhältlich sind, gute Erfolge erzielt.
Finanzdokumente enthalten sensible Informationen, die die Nutzung und Verarbeitung der Daten nur für autorisierte Personen zulässt. Das Anonymizer-Tool schwärzt diese Informationen durch natürliche Sprachverarbeitungs- und Deep Learning-Techniken sowie einer regelbasierten Nachbearbeitung.
Wie einfach KI-Algorithmen angegriffen werden können, hängt von der Form der Grenzen ab, mit der das neuronale Netz die Entscheidungen voneinander trennt. Diese kann durch das Erhitzen der Entscheidungsgrenzen bestimmt werden.
Die Lokalisierung von autonom fahrenden Robotern ist essentiell für ihre Navigation im Raum. ML2R-Wissenschaftler*innen entwickelten eine Methode, welche es Robotern ohne Vorwissen und mittels Bodenkamera ermöglicht, ihre räumliche Position zu bestimmen.
Künstliche Intelligenz braucht viele Daten. Aber wie viele Daten brauche ich mindestens für ein gutes Modell? Der „Curse of Dimensionality“ und das “Nyquist-Shannon-Theorem” geben Antworten.
Die Evolutionäre Optimierung ist eine echte Alternative zu gradientenbasierten Verfahren, da sie flexibler in verschiedenen Anwendungsszenarien eingesetzt werden kann. ML2R-Forschende nutzten evolutionäre Algorithmen, um Schaltkreise von Quantencomputern zu optimieren.
Quantencomputer haben das Potenzial, Informationen schneller zu verarbeiten und komplexere Aufgaben zu bewältigen als klassische Computer. Sie werden Künstliche Intelligenz und Maschinelles Lernen tiefgreifend verändern und neue Anwendungsmöglichkeiten für ML-Verfahren erschließen.
Die aktuelle Corona-Pandemie stellt die Gesundheitsämter in Deutschland vor große Herausforderungen. In einer Studie mit dem Gesundheitsamt Köln konnten Wissenschaftler*innen mittels Datenanalysetechniken das Infektionsgeschehen nachvollziehen und Ansteckungsmuster erkennen.
Deep Learning nutzt tiefe neuronale Netze, um Bilder zu erkennen, Texte zu verstehen und Entscheidungen genauer zu treffen. Zur Analyse großer Datensätze verwendet das „mehrschichtige Lernen“ mehrere versteckte Ebenen im Netz.
Word-Embeddings bilden den Grundbaustein für die algorithmische Analyse und Verarbeitung von Texten, wie Textklassifizierung, Übersetzung und Textgenerierung. Interpretierbare Vektorrepräsentation von Wörtern kodieren semantische Zusammenhänge verständlich und ermöglichen Analyse von wort-übergreifenden Themen.
Edge Deployment ermöglicht die sichere und ressourcenschonende Verarbeitung großer Datenströme in Echtzeit sowie ein dezentrales Datenmanagement und Training im Maschinellen Lernen. KI-basierte Anwendungen können so in die Produktion gebracht werden.
Publish or Perish? Wissenschaft zum Maschinellen Lernen unterliegt einem hohen Publikationsdruck. ML-Forschung kann hier von einer Adaption des Slow Science-Ansatzes profitieren, der mehr Zeit für und Konzentration auf inhaltliche Forschungstätigkeit legt.
Sicherheitskritische Systeme, wie beispielsweise selbstfahrende Autos, stellen neue, hohe Anforderungen an KI-Modelle. Vielerorts wird hierzu an Lösungsansätzen geforscht, ein umfassender Überblick wurde jetzt durch ein Übersichtspapier des Konsortiums „KI-Absicherung“ geschaffen.
Künstliche Intelligenz ist im medizinischen Kontext nicht wegzudenken. Gerade während einer globalen Pandemie können die Digitalisierung und Verschlankung von Prozessen im Gesundheitswesen dabei unterstützen, wertvolle Ressourcen zu sparen und Überlastungen abzufedern.
BERT ermöglicht es viele Probleme der Interpretation natürlicher Sprache zu lösen. Dieser Beitrag erläutert detailliert die Architektur, die Eigenschaften und Funktionsweise des von Google entwickelten Modells.
Der Sinngehalt von Worten lässt sich durch numerische Vektoren darstellen, die auch die Nachbarschaftsworte einbeziehen. Dadurch lassen sich syntaktische und semantische Zusammenhänge der Sprache erfassen und zur Interpretation von Bedeutungen verwenden.
Um alle Typen der Syllogismen zu lernen, gibt es keine ‘perfekten Trainingsdaten’, unabhängig davon wie viele Daten vorliegen. Stattdessen ist es möglich, die Syllogismen anhand semantischer Repräsentation der Eingabe zu lernen.
Informationen in Urteilstexten liegen unstrukturiert und in großen Mengen vor. Methoden der intelligenten Informationsextraktion, logische Regeln sowie Expertenwissen können bei ihrer Analyse unterstützen und tragen zur transparenteren Strafzumessung in Deutschland bei.
Informed Machine Learning macht bestehende Wissensquellen nutzbar und integriert sie in maschinelle Lernverfahren. Damit können Modelle basierend auf Daten und Vorwissen trainiert werden. Unternehmen können so langjähriges Fachwissen gewinnbringend einsetzen.
Mit Aktivem Lernen wird das Annotieren von Daten schneller und kostengünstiger. Die Methode bindet Menschen effizient in den Prozess des Maschinellen Lernens ein und bildet damit ein Sprungbrett für vertrauenswürdige KI.
Gammastrahlung gibt Hinweise auf Vorgänge im Weltall. Erstmalig ist es einem interdisziplinären Forscherteam der Informatik und Astrophysik an der TU Dortmund gelungen, die Analyse von Gammastrahlung in Echtzeit am Teleskop durchzuführen.
Menschen können vorhandenes Wissen und logisches Denken kombinieren, um neue Probleme zu lösen. Für KI ist das nicht so einfach. Der ARC Benchmark bietet nun eine Testumgebung für solch neuartige KI-Ansätze.
Mikrochips wie ASICs sind klein, schnell und energiesparend. Vor allem FPGAs sind darüber hinaus sehr flexibel, da sie neu programmierbar sind. Damit sind sie interessante Plattformen für die Entwicklung von ML-Methoden.
Bei Daten mit Lücken ist das Lernen von Modellen oft schwierig, und in manchen Fällen sogar unmöglich. Allerdings können generative Verfahren helfen, indem sie unvollständige Daten mit möglichst sinnvollen Annäherungen auffüllen.
Um in umfangreichen Textsammlungen eine zielgerichtete Suche zu ermöglichen, ist eine Vergabe von Stichworten üblich. Wir beschreiben Methoden, wie man kurze Texte vollautomatisch mit inhaltsbezogenen Stichworten versehen kann.
Viele Entscheidungen können heutzutage effizient, genau und automatisiert mittels maschineller Lernverfahren getroffen werden. Ebenso wichtig ist allerdings, dass transparent dargestellt und erklärt wird, warum und wie diese Entscheidungen zustande kommen.
In drei Schritten beschreiben wir das Maschinelle Lernen in der Praxis: das richtige Mindset, ein Beispiel-Prozess mit System und die richtige Werkzeugwahl. Dieser Beitrag bietet einen Einstieg und Hinweise zu Ressourcen.
Optimierung ist eine Schlüsselkomponente des Maschinellen Lernens, die erlaubt, Modelle basierend auf Daten zu trainieren. Sie arbeitet meist im Hintergrund, ist jedoch gerade bei hochkomplexen Lernproblemen und schwieriger Datenlage wichtig.
Im Maschinellen Lernen gibt es verschiedene Paradigmen, nach denen Algorithmen trainiert werden. Sie unterscheiden sich in der Auswahl der Trainingsdaten und in der Art und Häufigkeit des Feedbacks während der Trainingsphase.
Maschinelles Lernen ist längst zum festen Bestandteil unserer Welt geworden, sie verändert unser Leben und die Gesellschaft. Wir erklären hier die grundlegenden Begriffe und Konzepte dieser neuartigen Technologie.