ChatGPT: Wie klug ist der gehypte Chatbot?
Wie intelligent ist ChatGPT und kann es aus seinen Fehlern lernen? Unser Autor Prof. Dr. Christian Bauckhage hat sich weiter mit dem Chatbot unterhalten und hat ihn einem Intelligenztest unterzogen.
Wie intelligent ist ChatGPT und kann es aus seinen Fehlern lernen? Unser Autor Prof. Dr. Christian Bauckhage hat sich weiter mit dem Chatbot unterhalten und hat ihn einem Intelligenztest unterzogen.
ChatGPT ist seit seiner Veröffentlichung in aller Munde. In diesem Beitrag nimmt Prof. Dr. Christian Bauckhage diesen Hype unter die Lupe und erzählt von seinen eigenen Erfahrungen mit dem Chatbot.
Große Sprachmodelle besitzen ein immenses Transformationspotenzial. Sogenannte Foundation-Modelle können mittlerweile nicht nur die Bedeutung von Texten und Bildern erfassen und selbst erzeugen, sondern sind auch auf Videos anwendbar.
Die Verbesserung der Vorhersagequalität von gelernten ML-Modellen führt zu Verfahren mit hohem Energieverbrauch. Eine neue Methode ermöglicht die Ermittlung von Energieeffizienz im ML, sowie eine Darstellung in Form von Energie Labels.
Künstliche Intelligenz kann die Nachhaltigkeit in der Forschung und Entwicklung fördern. Mit dem gezielten Einsatz im Design of Experiments ist es möglich, Versuche und damit auch Ressourcen einzusparen.
In diesem Beitrag stellt sich der Exzellenzcluster „PhenoRob – Robotik und Phänotypisierung für Nachhaltige Nutzpflanzenproduktion“ der Universität Bonn vor und gibt spannende Einblicke in seine Forschungsfelder rund um die Landwirtschaft 4.0.
In Kooperation mit dem Landesfrauenrat RLP: KI ist längst eine Schlüsseltechnologie. Umso wichtiger ist es, KI-Anwendungen so zu gestalten, dass sie verlässlich & sicher agieren und transparent & zuverlässig mit Daten…
In Kooperation mit dem Landesfrauenrat RLP: In diesem Beitrag gibt Autor Sebastian Müller einen kompakten Überblick über die Facetten der KI und beantwortet die Frage, welche möglichen Grundstrukturen KI-Algorithmen zugrunde liegen.
In Kooperation mit dem Landesfrauenrat RLP: Der Beitrag unserer Gastautor*innen des DGBs NRW skizziert das Thema KI in der Arbeitswelt und beantwortet die Frage, welche möglichen geschlechterspezifischen Auswirkungen sie haben kann.
In Kooperation mit dem Landesfrauenrat RLP: Dieser Beitrag wirft einen Blick auf die Frage wie KI Schulen und Bildungseinrichtungen verändern kann und beleuchtet Möglichkeiten, Grenzen sowie Rahmenbedingungen intelligenter Bildungstechnologien.
In Kooperation mit dem Landesfrauenrat RLP: Dieser Beitrag wirft einen Blick hinter die Kulissen Künstlicher Intelligenz in der Medizin und zeigt, wie KI die medizinische Pflege und Diagnose verändert.
Sprachmodelle mit Milliarden von Parametern können sinnvoll Fragen beantworten und scheinen durch „Lesen“ Text- und Weltverständnis aufzubauen. Ihre Komplexität ist undurchschaubar, aber sie können lernen, sich zu erklären.
Der Umgang mit fachbezogenen Artikeln ist ein essenzieller Teil des wissenschaftlichen Arbeitens. Dieser Artikel stellt Herangehensweisen und Tools vor, welche von ML2R Forscher*innen genutzt werden, um den Forschungsprozess effektiv zu gestalten.
Klassifikation ist eines der fundamentalen Denkwerkzeuge im ML. Mit ihm können existierende Lösungen auf neue Probleme übertragen werden. Klassifikatoren lernen, aus Daten Muster zu erkennen und so Daten verschiedenen Klassen zuzuordnen.
In den Forschungs- und Entwicklungsabteilungen kann Design of Experiments mit Künstlicher Intelligenz viele Experimente, und damit Zeit, Geld und Ressourcen sparen. Doch wie genau funktioniert es?
Maschinelles Lernen ermöglicht das Entwickeln leistungsfähiger Bilderkennungssysteme (Computer Vision), mit denen Informationen aus Bildern und Videos automatisiert erkannt und extrahiert werden können. Insbesondere Deep-Learning-Verfahren haben hierbei einen Vorteil gegenüber traditionellen Methoden.
Der Einsatz künstlicher intelligenter Systeme erschwert es uns, Personen für Fehlentscheidungen verantwortlich zu machen. Die Einbindung menschlicher Akteure und erklärbarer KI-Systeme ermöglicht eine Verantwortungszuschreibung bei KI-gestützten Entscheidungsprozessen.
Die Entwicklung fairer KI steht vor vielen Herausforderungen. Eine davon: Wie genau sehen eigentlich faire Entscheidungen aus? Diese Frage lässt sich weder mathematisch noch ethisch leicht beantworten.
Hersteller von „Artificial Companions“ versprechen, dass man mit ihren KI-Systemen tatsächlich befreundet sein kann. Ist dies der Weg zur perfekten Freundschaft, oder handelt es sich um eine riskante Illusion?
Mit der DSGVO trat das Recht auf Vergessenwerden in Kraft. Im Maschinellen Lernen eröffnet gezieltes Vergessen neben Aspekten der Datensicherheit und Privatsphäre auch Potenziale für die Anwendbarkeit und Weiterentwicklung von Lernmodellen.
Lineare Regression, eine grundlegende Technik im Maschinellen Lernen, liefert in Anwendungsfällen schnell gute Ergebnisse. Wir zeigen praxisnah und mit Python Code-Schnipseln, wie man Lineare Regressionsmodelle mittels Methode der kleinsten Quadrate trainiert.
Intelligente Sprachmodelle erhalten beständig mehr Einzug in unseren Alltag und nehmen Einfluss auf uns. Doch sind sie alle nützlich? Können wir sie noch von Menschen unterscheiden oder bedarf es neuer Forschungsansätze?
GANs ermöglichen ohne die Vorgabe von Regeln oder anderem Expertenwissen, allein aus großen Datenmengen neue, domänenspezifische Beispiele zu erzeugen. In diesem Beitrag erklären wir, wie GANs für die Übersetzung genutzt werden.
Nachvollziehbarkeit algorithmischer Entscheidungen ist längst auch über die Forschung hinaus relevant. Wir analysieren, wie Erklärbarkeitsmethoden und externes Wissen zusammenwirken können, um Maschinelles Lernen an gesellschaftliche Anforderungen anzupassen und zu verbessern.
Software für Maschinelles Lernen ist für bestimmte Angriffe anfällig: So können künstlich veränderte Eingabedaten zum Versagen des zugrunde liegenden Modells führen. Wir stellen Techniken zur Entwicklung von adversarialer Robustheit vor.
Feindliche Angriffe beim maschinellen Lernen zielen darauf ab, Ausfälle in der Funktionalität der Modelle zu verursachen. Dieser Blogpost beschreibt die sogenannten „Adversarial Examples“, die fehlerhafte Vorhersagen neuronaler Netze verursachen.
Künstliche Intelligenz braucht viele Daten. Aber wie viele Daten brauche ich mindestens für ein gutes Modell? Der „Curse of Dimensionality“ und das “Nyquist-Shannon-Theorem” geben Antworten.
Quantencomputer haben das Potenzial, Informationen schneller zu verarbeiten und komplexere Aufgaben zu bewältigen als klassische Computer. Sie werden Künstliche Intelligenz und Maschinelles Lernen tiefgreifend verändern und neue Anwendungsmöglichkeiten für ML-Verfahren erschließen.
Deep Learning nutzt tiefe neuronale Netze, um Bilder zu erkennen, Texte zu verstehen und Entscheidungen genauer zu treffen. Zur Analyse großer Datensätze verwendet das „mehrschichtige Lernen“ mehrere versteckte Ebenen im Netz.
Der Sinngehalt von Worten lässt sich durch numerische Vektoren darstellen, die auch die Nachbarschaftsworte einbeziehen. Dadurch lassen sich syntaktische und semantische Zusammenhänge der Sprache erfassen und zur Interpretation von Bedeutungen verwenden.
Informed Machine Learning macht bestehende Wissensquellen nutzbar und integriert sie in maschinelle Lernverfahren. Damit können Modelle basierend auf Daten und Vorwissen trainiert werden. Unternehmen können so langjähriges Fachwissen gewinnbringend einsetzen.
Mit Aktivem Lernen wird das Annotieren von Daten schneller und kostengünstiger. Die Methode bindet Menschen effizient in den Prozess des Maschinellen Lernens ein und bildet damit ein Sprungbrett für vertrauenswürdige KI.
Mikrochips wie ASICs sind klein, schnell und energiesparend. Vor allem FPGAs sind darüber hinaus sehr flexibel, da sie neu programmierbar sind. Damit sind sie interessante Plattformen für die Entwicklung von ML-Methoden.
Viele Entscheidungen können heutzutage effizient, genau und automatisiert mittels maschineller Lernverfahren getroffen werden. Ebenso wichtig ist allerdings, dass transparent dargestellt und erklärt wird, warum und wie diese Entscheidungen zustande kommen.
In drei Schritten beschreiben wir das Maschinelle Lernen in der Praxis: das richtige Mindset, ein Beispiel-Prozess mit System und die richtige Werkzeugwahl. Dieser Beitrag bietet einen Einstieg und Hinweise zu Ressourcen.
Optimierung ist eine Schlüsselkomponente des Maschinellen Lernens, die erlaubt, Modelle basierend auf Daten zu trainieren. Sie arbeitet meist im Hintergrund, ist jedoch gerade bei hochkomplexen Lernproblemen und schwieriger Datenlage wichtig.
Im Maschinellen Lernen gibt es verschiedene Paradigmen, nach denen Algorithmen trainiert werden. Sie unterscheiden sich in der Auswahl der Trainingsdaten und in der Art und Häufigkeit des Feedbacks während der Trainingsphase.
Maschinelles Lernen ist längst zum festen Bestandteil unserer Welt geworden, sie verändert unser Leben und die Gesellschaft. Wir erklären hier die grundlegenden Begriffe und Konzepte dieser neuartigen Technologie.