Im ersten Teil unserer Serie über Künstliche Intelligenz (KI) ging es um eine allgemeine Einführung. Der zweite Teil handelte davon, wo konkret KI in Software bereits Anwendung findet. Teil 3 thematisiert nun, welches die Bereiche sind, in denen die Künstliche Intelligenz ihre besonderen Vorteile ausspielt bzw. ausspielen könnte.
Verbesserte Funktionen: Beispiel Vektorisierung
Viele Designer haben für ihre Gestaltungs-Software eine Wunschliste, die sich meist auf die Verbesserung von Funktionen bezieht. So war bereits die Rede von der zentralen Funktion „Bilderkennung“ bei der Bildersuche oder von der Verbesserung von Freistellern. Andere Funktionen wie zum Beispiel die weitere Qualitätsverbesserung der Umwandlung von Pixelgrafiken in Vektorgrafiken könnten auf so einer Liste stehen. Denn während etwa einfache Illustrationen wie Cartoons sehr gut vektorisierbar sind, hapert es bei der Pixel-Schrift-Vektorisierung. Hier werden vor allem Rundungen nicht exakt vektorisiert bzw. der Aufwand für die Voreinstellungen pro Buchstabe ist hoch und damit zeitraubend. Wer also zukünftig einen Schriftzug, der ihm nur als Pixelgrafik vorliegt, verwenden will, könnte sich über die Bilderkennungs-Kompetenz der KI freuen, die Buchstaben besser erkennt – was zu einem hochwertigeren Vektorisierungsergebnis führen könnte.
Überblick über mögliche KI-Bereiche im Medien-Design
Tritt man einen Schritt zurück, kann man sehen, in welchen Bereichen KI zukünftig den Designer/die Designerin entlasten könnte:
- Bilderkennung: Verbesserte Fähigkeiten der Bilderkennung beschleunigen die Motivsuche in Bilddatenbanken. Die Software kann proaktiv Bildvorschläge machen. Das bezieht sich im Gestaltungsprozess nicht nur auf die Motivsuche, sondern auch auf den Bildausschnitt oder die Farbwelt des Bildes.
- Bildfilterung: Seiten wie Deep Dream oder viele Apps auf mobilen Geräten filtern Bilder, um eine bestimmte Stimmung zu erreichen, einen Effekt oder ein künstlerisches Ergebnis.
- Bildkreation: Inzwischen malen Künstliche Intelligenzen auch. Man wählt etwa einen Stil, den die Software gelernt hat, gibt einen Bildinhalt vor, und fertig könnte zukünftig auch die kreative Illustration oder der einfache Cartoon sein.
- Druckdaten-Analysetools: Für den Produktionsprozess und seine Qualitäts-Sicherung ist der Daten-Check von zentraler Bedeutung. Er kann durch die KI optimiert werden.
- Automatisierungstools: So wie Freisteller oder Vektorisierungen in guter Qualität automatisch ablaufen, so gibt es in vielen Bereichen des Gestaltens Aufgaben, in denen die KI Schritte beschleunigen könnte. Etwa: Automatische Platzierung des gesamten Gestaltungsmaterials für einen Erstentwurf, Vorschläge für geeignete Schriftkombinationen, alternative Vorschläge für einspaltiges oder mehrspaltiges Layout.
- Kollaboratives Arbeiten: Das Arbeiten von mehreren Personen oder Gruppen an umfangreichen Drucksachen ist nichts Neues mehr. Intelligente Software managt jetzt schon Zugriffsrechte oder Gestaltungsversionen und sorgt in einem komplexen Prozess dafür, dass nicht das Chaos Einzug hält. Die KI könnte zum Beispiel den Versionsabgleich weiter vereinfachen und reibungsloser gestalten, damit das gemeinsame Arbeiten noch mehr Spaß macht.
- (Cloud-)Daten-Synchronisierung: Vom Bereich „Kollaboratives Arbeiten“ ist es nicht weit zum Bereich „Cloud“. Das Arbeiten im virtuellen Raum, ob alleine oder in der Gruppe, ist heute nicht mehr wegzudenken. Wo, wann und wie welche Daten zur Verfügung stehen, ist oft entscheidend. Eine KI, die mitdenkt, könnte aktiv ständig alles in die Cloud bringen, das zum Arbeiten benötigt wird. Sie könnte dabei z.B. auch an Kompatibilitäten denken, damit man unterwegs auch mit Smartphone, Phablet oder Tablet am Entwurf weiterarbeiten kann.
- Designprozess: Der wichtigste Bereich für das Design ist der Designprozess. Hier geht es um Eigenschaften wie Schnelligkeit, Qualität oder Daten-Verfügbarkeiten. Effizienz ist das Stichwort. Was macht den Design-Prozess aus?
Künstliche Intelligenz im Design-Prozess
Eine funktionale Qualitätsverbesserung der KI wie bei der beschriebenen Vektorisierung würde sich auf den Bereich „Design-Prozess“ beziehen. Denn der würde schneller vonstatten gehen, wenn man weniger oder nicht mehr manuell nacharbeiten müsste. KI-gesteuerte Funktionalitäten erhöhen die Effizienz des Design-Prozesses. Eine Software, die quasi mitdenkt, erleichtert Arbeiten. Aber nicht nur das. Der Design-Prozess wird maßgeblich durch die Benutzerschnittstelle beeinflusst. Ob der/die Designer/in mit Maus oder Stift Funktionen in Menüs auswählt oder man die Software über Sprachbefehle steuert, ist ein erheblicher Unterschied. Er bezieht sich auf den Bereich „Kommunikation oder Interaktion mit der Software“. Wenn man mit der Software sprechen könnte und in einen Dialog mit ihr tritt, könnte das vieles vereinfachen. Eigentlich aber ist das Wesentliche bei der Künstlichen Intelligenz, dass sie fortwährend lernen kann. Mit welchen Daten aus welchen Bereichen könnte man sie „füttern“?
Mit welchen Daten lässt sich KI optimieren?
Im Moment ist ein KI-System so gut wie die Daten, die man ihm zuführt. Anreichern kann man ein KI-System mit unterschiedlichsten Daten. Mit diesen kann sich die Software weiter optimieren und wird in Bezug auf die Aufgabenstellung immer intelligenter. Ein paar Beispiele:
- Schach: Man füttert die KI mit den bekannten Spielzügen und Spielabläufen.
- Freisteller: Es war in den vorherigen Artikeln schon die Rede davon, dass man eine Bildverarbeitung wie Photoshop oder Gimp aus den Arbeiten der Community lernen lassen könnte, etwa aus den automatischen Freistellern, die eine Software erzeugt hat und inwiefern der Mensch nachbessern musste, um die Qualität zu verbessern. Die Ergebnisse könnte die KI analysieren und in ihre Selbstoptimierung einfließen lassen.
- Übersetzung, Web-Suche oder Bildsuche: Man füttert die KI mit einem vollständigen Wortschatz und seinen semantischen Bedeutungs-Ebenen, also mit Mehrfachinhalten, Doppeldeutigkeiten oder Slangabwandlungen. Die Königsdisziplin sind hier Sinnzusammenhänge, zum Beispiel über Wortkopplungen. „Schimmel“ wird im Zusammenhang mit „Tieren“, „Natur“ oder „Reiten“ ein Pferd bezeichnen, im Zusammenhang mit „häuslichem Umfeld“ und „Lebensmitteln“ wird der Schimmelpilz gemeint sein.
Spracherkennung in der Kommunikation
Ein der Übersetzung naheliegender Bereich ist die Spracherkennung. Der Designer der Zukunft wird vermutlich über Audiobefehle oder Audiodialoge schneller mit der Gestaltungssoftware interagieren. Dafür muss sie ihn immer besser verstehen. Es ist denkbar, dass Sprachmuster, individuelle Kurzanweisungen oder Fachbegriffe für Arbeitsbereiche in portierbaren Audiosystemen gespeichert werden, die die Interaktion zwischen z.B. Photoshop und dem Designer, Illustrator oder Fotografen abbilden. Dafür muss das System möglichst viele Sprachmuster unterschiedlichster Anwender lernen, indem es mit Worten gefüttert wird und aus Dialogen lernt.
Bilder, Motive und Bilderkennung
Anhand der Gesichtserkennung bei Smartphones sieht man, wie gut die Software schon darin ist, menschliche Gesichter zu erkennen. Füttert man sie zur Optimierung ihrer Bilderkennung mit den Gegenständen und Produkten der Welt, wird sie in der Lage sein, auf einem Bild etwa eine Jeans von einer Stoffhose oder einer Leggings zu unterscheiden.
Gestaltungsparameter und ihre Systematisierung
Jeder Gestalter hat seine Vorlieben: Bestimmte Schriften oder Schriftkombinationen, Satzarten, Zeilenabstände, die Arbeit mit Weißräumen oder bestimmte Proportionen. Ein Gestalter hat dies verinnerlicht und oft wendet er seine Designvorlieben intuitiv an. Doch tatsächlich verbirgt sich dahinter ein gut abbildbares Regelwerk. Das gilt nicht für jede Gestaltung, schon gar nicht für eine sehr kreative oder freie Gestaltung. Aber vor allem all das, was streng über Gestaltungsvorgaben reglementiert ist, profitiert von einer Gestaltungssoftware, die all diese Regeln kennt. Man muss sie nur allgemein mit Regelwerken wie Proportionsgesetzen und dem jeweiligen Corporate Design füttern – und schon könnte die KI Vorschläge machen oder Hinweise geben, wo etwas nicht konform ist. Das könnte gerade dem Gelegenheitsanwender oder Laien beträchtlich weiterhelfen. Zumal die intelligente Software auch beginnen könnte, in Form von Vorschlägen selbst zu gestalten.
Kreativität und Künstliche Intelligenz
Ideenfindung ist die angestammte Domäne des Menschen. Es ist kaum vorstellbar, dass Software im menschlichen Sinne kreativ sein kann. Und doch lassen Wissenschaftler diese umstrittene Frage noch offen. Denn es wird die Frage der Zukunft sein, ob sich ein technisches Bewusstsein bilden kann. Falls ja, wäre theoretisch auch Kreativität denkbar. Kreativität ist ein Verfahren der Kombinatorik: Man nimmt Reize auf und kombiniert sie zu etwas Neuem. Tatsächlich setzen sich viele Designtrends aus Versatzstücken verschiedener Gestaltungsauffassungen zusammen. So wäre Kreativität ein Informationsmix mit neuem Schwerpunkt. Zwar deckt diese Beschreibung Kreativität nicht vollständig ab, weil sich jede relevante Idee aus einem sozio-kulturellen Umfeld ergibt. Diesen kulturellen Rahmen hat eine Künstliche Intelligenz aber nicht. An den Möglichkeiten des Malens einer KI zeigt sich zweierlei:
- 1. Die KI kann mit einem Mal- oder Illustrationsstil etwa von Rembrandt gefüttert werden und dann wie er malen oder zeichnen.
- Sie ist damit aber 2. Nicht kreativ sondern repetitiv. Das heißt: Sie wiederholt nur eine gelernte Stilistik.
Dennoch wird man zukünftig die KI in Kreativfelder eindringen sehen. Sie wird Gedichte und Texte schreiben, Bilder malen aber auch illustrieren oder Cartoons zeichnen können. Aber wird sie auch Ideen haben? Eine Antwort darauf steht noch aus.