"Ich möchte nicht mehr ohne meine Maschine handeln"
Als IT-Spezialistin gestaltet sie die Zukunft der künstlichen Intelligenz mit. Trotzdem warnt Yvonne Hofstetter davor, unbedacht Daten herauszugeben. "Wir sollten vorher und rechtzeitig darüber nachdenken, wie wir unser Mensch-Maschine-Verhältnis positiv gestalten können."
Katrin Heise: Wie schön wäre es doch, wenn Ihr Kühlschrank sich melden würde, wenn die Milch sauer geworden ist oder einfach zu wenig Milch da ist für den Grießbrei, das Lieblingsessen Ihrer Tochter zum Beispiel – wenn der Kühlschrank dann noch die Milchbestellung aufgeben würde und so weiter und so fort. Zukunftsmusik. Wie weit ist die künstliche Intelligenz in unseren Alltag denn eigentlich schon vorgedrungen, und was kann die rasante Entwicklung für Konsequenzen haben? Das will ich jetzt mit Yvonne Hofstetter besprechen. Yvonne Hofstetter ist Geschäftsführerin einer Firma, die für Unternehmen Datenanalysen durchführt und künstliche Intelligenz programmiert. Und sie hat Sorge, Maschinen könnten uns eines Tages entmündigen. Ich grüße Sie, Frau Hofstetter!
Yvonne Hofstetter: Schönen guten Morgen, Frau Heise!
Heise: Ihre Firma wertet also Datenmengen für Unternehmen aus, damit die am Ende zum Beispiel einen optimalen Lkw-Lieferverkehr auf die Beine stellen, diese Firmen?
Hofstetter: Ja, so ist es. Wenn wir zurückdenken, was auch gerade in den Nachrichten kam, an die NSA-Affäre, dann sehen wir da die Spitze eines Eisberges. Wir haben also gehört, dass die NSA und andere Geheimdienste Daten sammeln. Das ist mal die Voraussetzung für alles, was danach folgt. Intelligente Systeme sind heute schon sehr weit, das heißt, mit der Datensammelei und einfach Suchmaschinen darauf laufen lassen, ist es nicht getan. Sondern in einem zweiten Schritt werden eben intelligente Systeme eingesetzt, also künstliche Intelligenz eingesetzt, um diese Daten auszuwerten, zu analysieren, Netzwerke zu erstellen, Beziehungsnetze zu erstellen, Lageanalysen zu erstellen.
Und in einem dritten Schritt werden dann Kontrollstrategien darauf gesetzt, und diese Kontrollstrategien, die optimieren dann einen bestimmten Fall oder eben einen Menschen, einen Bürger, einen Konsumenten. Und auf diesem Weg sind wir langsam, und da habe ich eben die Befürchtung, dass wir in eine Situation der Informationskontrolle, Gefühls- und Verhaltenskontrolle hineinkommen, gesteuert durch Maschinen.
Heise: Sagen Sie doch mal ein Beispiel für einen Bereich, wo die Maschinen uns Menschen uns quasi schon lenken. Also nicht nur hilfreich zur Seite stehen, sondern tatsächlich steuern.
Hofstetter: Also ich sehe das hauptsächlich natürlich in der Industrie. Entwickelt worden sind diese Maschinen ja ursprünglich mal im Militär, und dann ist der natürliche Weg der, dass eben vom Militär in gewöhnlicher Weise eben diese Maschinerie in die Industrie vordringt und dort eingesetzt wird. Das ist passiert seit Anfang dieses Jahrtausends in der Finanzserviceindustrie. Also Sie können davon ausgehen, dass intelligente Maschinen einen Großteil unserer Investments beispielsweise managen. Da sitzen dann keine Händler mehr.
Also das nennt sich sogenanntes Algorithmic oder Systematic Trading, und dort ist es eben so, dass Maschinen den Handel übernommen haben. Beispielsweise den Börsenhandel oder den Währungshandel. Das macht nicht mehr unbedingt ein Mensch. Der Mensch, also der Händler sitzt eigentlich nur noch vor dem Bildschirm und schaut die Maschine an, ob das alles richtig abgewickelt wird, ist eigentlich nur noch für den Notfall da, greift nur noch im Notfall ein. Und da sieht man schon eine entsprechende Abhängigkeit des Händlers von der Maschine, denn die Händler sagen, ich möchte nicht mehr ohne meine Maschine handeln.
Heise: Wir haben jetzt schon häufiger das Wort Algorithmus benutzt oder Algorithmen. Also das sind diese vielen, vielen Schritte, diese aufeinander aufbauenden Vorschriften, die dann eben ein Problem lösen, die errechnen – jetzt mal wieder ein anderes Beispiel –, wann man in A losfahren muss, um trotz Stau und schlechtem Wetter pünktlich in B anzukommen. Diese Algorithmen, die sind ja eigentlich immer darauf angelegt, das Optimum, das Beste herauszuholen. Also den schnellsten Weg, die größte Geld- und Zeitersparnis. Steckt darin eigentlich die Gefahr, dass eben sich nur noch der Beste, die Beste durchsetzt, weil die Maschinen uns so steuern, so ausgelegt sind?
Hofstetter: Im Moment ist das so, ja. Was Sie gerade beschrieben haben, das ist so dieses konventionelle Programmieren. Bei der künstlichen Intelligenz ist das ein bisschen anders. Da lernen die Maschinen ihre Algorithmen selbst, also diese Abfolgen selbst. Und je nachdem, was eben optimiert werden soll, haben Sie recht: Also, man kann ganz egoistisch optimieren und sagen, ich will nur meinen Profit optimieren. Also, wenn ich an die Industrie denke, werden die eben möglichst optimieren, dass wir Konsumenten das kaufen, was sie uns vorstellen. Sie könnten theoretisch auch ein sogenanntes Pareto-Optimum, das ist ein Optimum, wo keiner etwas verliert. Aber das setzt sich eben relativ schlecht durch. Da müssten Sie sich dann großflächig einigen, Algorithmen dann entsprechend so zu programmieren, dass halt keiner etwas verliert, ja.
Heise: Das heißt, wo bleiben bei diesem ganzen System Hilfe und Kooperation, also diese menschlichen Eigenschaften auch?
Hofstetter: Also in diesen Systemen gibt es keine Kooperation. Die sind nichtkooperativ. Es ist auch so, dass in diesen Kontrollstrategien, von denen ich gerade erzählt habe, auf der dritten Stufe, dass dort Spielstrategien eingesetzt werden, und diese Spielstrategien kommen aus dem Militär und die sind grundsätzlich nicht kooperativ. Spieltheorie ist nicht kooperativ.
Heise: Wie können wir, wenn wir das aber erhalten wollen, wir können wir unser Zusammenleben mit den Maschinen, also mit der künstlichen Intelligenz, so gestalten, dass genau die Dinge, die wir erhalten wollen, auch erhalten bleiben. Also wie können wir das mündig gestalten?
Hofstetter: Also ich denke erst mal, dass die Gesellschaft sich darüber klar sein muss, dass sie das haben möchte. Das Problem, das wir sehen als Technologen, ist, dass wir einerseits fast alles bauen können, was Sie sich vorstellen können. Also wir haben praktisch keine Limitierungen mehr, weil wir unglaubliche Speicherkapazitäten haben, riesige Rechnerkapazitäten. Da ist alles möglich. Jetzt sehen wir in der Gesellschaft eben das Problem, dass jeder ohne Weiteres sagt, ich möchte meine Daten geben, es ist alles kein Problem, ich möchte maximalen Nutzen für mich selbst haben, ich möchte ja mein Leben optimiert haben. Sie haben ja das Beispiel mit dem Kühlschrank gebracht.
Und da kommt es mir dann nicht mehr drauf an, dass ich also völlig gläsern und völlig transparent bin. Und dann sollen die doch, die Maschinen, damit machen, was sie wollen, Hauptsache, ich habe meinen persönlichen, eigenen Nutzen davon. Und ich denke, dass wir in der Gesellschaft da umdenken müssen oder uns überlegen müssen: Was ist es denn wert, dass wir bestimmte Freiheiten aufrechterhalten?
Heise: Früher hieß es ja immer, der Rechner ist nur so schlau wie der Mensch, der ihn programmiert. Gilt das eigentlich heute noch? Wenn ich höre, dass die selbstlernend sind, diese Algorithmen?
Hofstetter: Ich würde sagen, ja, das gilt immer noch. Man hat so ein falsches Verständnis von künstlicher Intelligenz. Man sieht das auch in der Industrie: Die Industrie glaubt natürlich, ja, jetzt haben wir mit der künstlichen Intelligenz irgendwie die goldene Gans gefunden. Das ist so nicht. Also, auch künstliche Intelligenz ist nur so gut wie die Mathematiker und Physiker, also die Wissenschaftler, die dahinter stehen. Wie die das modellieren, was dieser künstlichen Intelligenz, also den Algorithmen an Modellen zugrunde liegt. Das ist richtig.
Heise: Ich frag das nämlich deswegen, weil ich mich dann doch auch frage, ob wir überhaupt die kognitiven Fähigkeiten haben gegenüber einem Rechner mündig zu bleiben?
Hofstetter: Es ist natürlich so, dass wir uns hineinbegeben in den Rechner, und dann muss man sich schon fragen, was macht das mit dem Menschen. Das ist natürlich jetzt eine philosophisch-anthropologische Frage. Wenn ich mich so hineinbegebe in den Rechner, mich zum Teil des Rechners mache – zum Teil machen wir das ja schon, weil wir ja Dienstleister unserer Maschinen sind, wir geben ja ständig irgendwelche Daten ein –, dann bedeutet das natürlich, dass ich, ich sag mal, mich mit einem Riesenspeicher auseinandersetze, der viel größer ist als mein Gehirn und der dann so viel in Anspruch nimmt meiner kognitiven Fähigkeiten, dass im Grunde genommen das, was ich da verarbeiten soll, was mir an Informationen präsentiert wird, dass das nicht mehr sich setzt und dass ich das nicht mehr durchdenken kann. Und dass ich deswegen einfach auch einen verkürzten Verstand bekomme, wenn Sie so wollen.
Heise: Die IT-Spezialistin Yvonne Hofstetter über das Mensch-Maschine-Verhältnis. Frau Hofstetter, jetzt sind Sie ja selber eine, die programmiert künstliche Intelligenz, warnen aber gleichzeitig, so verstehe ich Sie jedenfalls, davor. Befürchten Sie so ein bisschen, dass Sie, quasi wie bei dem Zauberlehrling in Goethes gleichnamiger Ballade, Sie die Geister, die Sie riefen, nicht mehr los werden.
Hofstetter: Ja, das ist richtig. Der tanzende Besen, der tanzt, und den kann man jetzt nicht mehr stoppen. Wir sehen eben als Technologen, wie schnell die Entwicklung voranschreitet. Der Konsument weiß das nicht, dem ist das nicht bekannt, was in der Forschung alles am Laufen ist. Und wichtig ist es einfach, rechtzeitig zu warnen und zu sagen, das kann hier ganz schlimm ausgehen, bitte, lasst uns diskutieren, welche Rechte, welche Freiheiten uns wichtig sind. Ansonsten gibt es hier so strukturelle Veränderungen, die nicht mehr rückgängig zu machen sind. Also, wir sollten vorher und rechtzeitig darüber nachdenken, wie wir unser Mensch-Maschine-Verhältnis positiv gestalten können.
Heise: Das Beispiel, das Sie gesagt haben, die Aktienhändler, die jetzt quasi schon von den Maschinen ersetzt werden. Da sieht man ja auch teilweise, was dann eben für Arbeitsplätze auch nach und nach wegbrechen. Das sind eben dann doch immer mehr die der ausgebildeten Mittelschicht. Auch ein Problem.
Hofstetter: Genau. Das ist richtig, es ist für eine Maschine, auch wenn sie intelligent ist, also in dem Fall für einen Roboter, immer noch schwieriger, einen Siphon zu reparieren, als beispielsweise eine Handelsentscheidung an der Börse zu treffen. Das heißt also, diese Blue-Collar-Jobs sind jetzt nicht so sehr gefährdet, aber die White-Collar-Jobs, also das, was zum Beispiel leichtere administrative Arbeiten sind, die sind gefährdet.
Und das ist ein Problem für unsere Sozialsysteme, denn Sie müssen sich das so vorstellen, dass das, was heute an Arbeit bezahlt wird, sozialversicherungspflichtiger Arbeit bezahlt wird, das wird dann später, wenn das eine Maschine erledigt, in Form von Lizenzgebühren, Nutzungsgebühren erhoben und fließt dann natürlich nicht mehr in die Sozialsysteme hinein, sondern fließt dann quasi den Investoren zu, die die Entwicklung dieser Maschinen bezahlt haben.
Heise: Jetzt haben Sie immer wieder darauf hingewiesen, einerseits, wir sollen diskutieren darüber in der Gesellschaft oder jeder soll sich darüber erst mal klar werden. Sie empfehlen uns eine Datendiät, habe ich gelesen, möglichst wenig digitale Daten produzieren. Aber da frage ich mich, wie soll das denn jetzt konkret gehen in der heutigen Arbeits- und Lebenswelt, die ständige Erreichbarkeit fordert, Informiertheit – das sind Kriterien des Erfolgs.
Hofstetter: Sie sollten einfach mal ausprobieren, einen Tag in der Woche ohne irgendwelche Gerätschaften auszukommen. Und dann schauen Sie mal, was das mit Ihrem Familienleben macht, was das mit Ihren nachbarschaftlichen Beziehungen macht, was das mit Ihrer Kommunikation tut. Datendiät heißt ja nicht, dass wir uns völlig davon absondern sollen, das können wir ja auch gar nicht mehr, das tue ich selbst ja auch nicht, obwohl ich eben entsprechende Bedenken habe. Aber einfach kontrolliert zu nutzen und verantwortungsvoll damit umzugehen, was wir ins Netz stellen, das ist wichtig. Denn im Netz wird beispielsweise auch nichts mehr vergessen. Die Daten, die irgendwann mal erhoben sind, sind da, für immer.
Heise: So einen Tag der Diät machen Sie, der Datendiät, in der Woche?
Hofstetter: Ja, mache ich.
Heise: Yvonne Hofstetter, Geschäftsführerin eines auf Datenanalyse spezialisierten Unternehmens. Ich danke Ihnen ganz herzlich!
Hofstetter: Ich danke Ihnen, Frau Heise.
Heise: Im Radiofeuilleton heute Nachmittag, zehn nach vier, beleuchten wir übrigens einen weiteren Aspekt der künstlichen Intelligenz. Uns interessieren da die Versuche, Kampfrobotern ein Gewissen, eine Moral beizubringen.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Yvonne Hofstetter: Schönen guten Morgen, Frau Heise!
Heise: Ihre Firma wertet also Datenmengen für Unternehmen aus, damit die am Ende zum Beispiel einen optimalen Lkw-Lieferverkehr auf die Beine stellen, diese Firmen?
Hofstetter: Ja, so ist es. Wenn wir zurückdenken, was auch gerade in den Nachrichten kam, an die NSA-Affäre, dann sehen wir da die Spitze eines Eisberges. Wir haben also gehört, dass die NSA und andere Geheimdienste Daten sammeln. Das ist mal die Voraussetzung für alles, was danach folgt. Intelligente Systeme sind heute schon sehr weit, das heißt, mit der Datensammelei und einfach Suchmaschinen darauf laufen lassen, ist es nicht getan. Sondern in einem zweiten Schritt werden eben intelligente Systeme eingesetzt, also künstliche Intelligenz eingesetzt, um diese Daten auszuwerten, zu analysieren, Netzwerke zu erstellen, Beziehungsnetze zu erstellen, Lageanalysen zu erstellen.
Und in einem dritten Schritt werden dann Kontrollstrategien darauf gesetzt, und diese Kontrollstrategien, die optimieren dann einen bestimmten Fall oder eben einen Menschen, einen Bürger, einen Konsumenten. Und auf diesem Weg sind wir langsam, und da habe ich eben die Befürchtung, dass wir in eine Situation der Informationskontrolle, Gefühls- und Verhaltenskontrolle hineinkommen, gesteuert durch Maschinen.
Heise: Sagen Sie doch mal ein Beispiel für einen Bereich, wo die Maschinen uns Menschen uns quasi schon lenken. Also nicht nur hilfreich zur Seite stehen, sondern tatsächlich steuern.
Hofstetter: Also ich sehe das hauptsächlich natürlich in der Industrie. Entwickelt worden sind diese Maschinen ja ursprünglich mal im Militär, und dann ist der natürliche Weg der, dass eben vom Militär in gewöhnlicher Weise eben diese Maschinerie in die Industrie vordringt und dort eingesetzt wird. Das ist passiert seit Anfang dieses Jahrtausends in der Finanzserviceindustrie. Also Sie können davon ausgehen, dass intelligente Maschinen einen Großteil unserer Investments beispielsweise managen. Da sitzen dann keine Händler mehr.
Also das nennt sich sogenanntes Algorithmic oder Systematic Trading, und dort ist es eben so, dass Maschinen den Handel übernommen haben. Beispielsweise den Börsenhandel oder den Währungshandel. Das macht nicht mehr unbedingt ein Mensch. Der Mensch, also der Händler sitzt eigentlich nur noch vor dem Bildschirm und schaut die Maschine an, ob das alles richtig abgewickelt wird, ist eigentlich nur noch für den Notfall da, greift nur noch im Notfall ein. Und da sieht man schon eine entsprechende Abhängigkeit des Händlers von der Maschine, denn die Händler sagen, ich möchte nicht mehr ohne meine Maschine handeln.
Heise: Wir haben jetzt schon häufiger das Wort Algorithmus benutzt oder Algorithmen. Also das sind diese vielen, vielen Schritte, diese aufeinander aufbauenden Vorschriften, die dann eben ein Problem lösen, die errechnen – jetzt mal wieder ein anderes Beispiel –, wann man in A losfahren muss, um trotz Stau und schlechtem Wetter pünktlich in B anzukommen. Diese Algorithmen, die sind ja eigentlich immer darauf angelegt, das Optimum, das Beste herauszuholen. Also den schnellsten Weg, die größte Geld- und Zeitersparnis. Steckt darin eigentlich die Gefahr, dass eben sich nur noch der Beste, die Beste durchsetzt, weil die Maschinen uns so steuern, so ausgelegt sind?
Hofstetter: Im Moment ist das so, ja. Was Sie gerade beschrieben haben, das ist so dieses konventionelle Programmieren. Bei der künstlichen Intelligenz ist das ein bisschen anders. Da lernen die Maschinen ihre Algorithmen selbst, also diese Abfolgen selbst. Und je nachdem, was eben optimiert werden soll, haben Sie recht: Also, man kann ganz egoistisch optimieren und sagen, ich will nur meinen Profit optimieren. Also, wenn ich an die Industrie denke, werden die eben möglichst optimieren, dass wir Konsumenten das kaufen, was sie uns vorstellen. Sie könnten theoretisch auch ein sogenanntes Pareto-Optimum, das ist ein Optimum, wo keiner etwas verliert. Aber das setzt sich eben relativ schlecht durch. Da müssten Sie sich dann großflächig einigen, Algorithmen dann entsprechend so zu programmieren, dass halt keiner etwas verliert, ja.
Heise: Das heißt, wo bleiben bei diesem ganzen System Hilfe und Kooperation, also diese menschlichen Eigenschaften auch?
Hofstetter: Also in diesen Systemen gibt es keine Kooperation. Die sind nichtkooperativ. Es ist auch so, dass in diesen Kontrollstrategien, von denen ich gerade erzählt habe, auf der dritten Stufe, dass dort Spielstrategien eingesetzt werden, und diese Spielstrategien kommen aus dem Militär und die sind grundsätzlich nicht kooperativ. Spieltheorie ist nicht kooperativ.
Heise: Wie können wir, wenn wir das aber erhalten wollen, wir können wir unser Zusammenleben mit den Maschinen, also mit der künstlichen Intelligenz, so gestalten, dass genau die Dinge, die wir erhalten wollen, auch erhalten bleiben. Also wie können wir das mündig gestalten?
Hofstetter: Also ich denke erst mal, dass die Gesellschaft sich darüber klar sein muss, dass sie das haben möchte. Das Problem, das wir sehen als Technologen, ist, dass wir einerseits fast alles bauen können, was Sie sich vorstellen können. Also wir haben praktisch keine Limitierungen mehr, weil wir unglaubliche Speicherkapazitäten haben, riesige Rechnerkapazitäten. Da ist alles möglich. Jetzt sehen wir in der Gesellschaft eben das Problem, dass jeder ohne Weiteres sagt, ich möchte meine Daten geben, es ist alles kein Problem, ich möchte maximalen Nutzen für mich selbst haben, ich möchte ja mein Leben optimiert haben. Sie haben ja das Beispiel mit dem Kühlschrank gebracht.
Und da kommt es mir dann nicht mehr drauf an, dass ich also völlig gläsern und völlig transparent bin. Und dann sollen die doch, die Maschinen, damit machen, was sie wollen, Hauptsache, ich habe meinen persönlichen, eigenen Nutzen davon. Und ich denke, dass wir in der Gesellschaft da umdenken müssen oder uns überlegen müssen: Was ist es denn wert, dass wir bestimmte Freiheiten aufrechterhalten?
Heise: Früher hieß es ja immer, der Rechner ist nur so schlau wie der Mensch, der ihn programmiert. Gilt das eigentlich heute noch? Wenn ich höre, dass die selbstlernend sind, diese Algorithmen?
Hofstetter: Ich würde sagen, ja, das gilt immer noch. Man hat so ein falsches Verständnis von künstlicher Intelligenz. Man sieht das auch in der Industrie: Die Industrie glaubt natürlich, ja, jetzt haben wir mit der künstlichen Intelligenz irgendwie die goldene Gans gefunden. Das ist so nicht. Also, auch künstliche Intelligenz ist nur so gut wie die Mathematiker und Physiker, also die Wissenschaftler, die dahinter stehen. Wie die das modellieren, was dieser künstlichen Intelligenz, also den Algorithmen an Modellen zugrunde liegt. Das ist richtig.
Heise: Ich frag das nämlich deswegen, weil ich mich dann doch auch frage, ob wir überhaupt die kognitiven Fähigkeiten haben gegenüber einem Rechner mündig zu bleiben?
Hofstetter: Es ist natürlich so, dass wir uns hineinbegeben in den Rechner, und dann muss man sich schon fragen, was macht das mit dem Menschen. Das ist natürlich jetzt eine philosophisch-anthropologische Frage. Wenn ich mich so hineinbegebe in den Rechner, mich zum Teil des Rechners mache – zum Teil machen wir das ja schon, weil wir ja Dienstleister unserer Maschinen sind, wir geben ja ständig irgendwelche Daten ein –, dann bedeutet das natürlich, dass ich, ich sag mal, mich mit einem Riesenspeicher auseinandersetze, der viel größer ist als mein Gehirn und der dann so viel in Anspruch nimmt meiner kognitiven Fähigkeiten, dass im Grunde genommen das, was ich da verarbeiten soll, was mir an Informationen präsentiert wird, dass das nicht mehr sich setzt und dass ich das nicht mehr durchdenken kann. Und dass ich deswegen einfach auch einen verkürzten Verstand bekomme, wenn Sie so wollen.
Heise: Die IT-Spezialistin Yvonne Hofstetter über das Mensch-Maschine-Verhältnis. Frau Hofstetter, jetzt sind Sie ja selber eine, die programmiert künstliche Intelligenz, warnen aber gleichzeitig, so verstehe ich Sie jedenfalls, davor. Befürchten Sie so ein bisschen, dass Sie, quasi wie bei dem Zauberlehrling in Goethes gleichnamiger Ballade, Sie die Geister, die Sie riefen, nicht mehr los werden.
Hofstetter: Ja, das ist richtig. Der tanzende Besen, der tanzt, und den kann man jetzt nicht mehr stoppen. Wir sehen eben als Technologen, wie schnell die Entwicklung voranschreitet. Der Konsument weiß das nicht, dem ist das nicht bekannt, was in der Forschung alles am Laufen ist. Und wichtig ist es einfach, rechtzeitig zu warnen und zu sagen, das kann hier ganz schlimm ausgehen, bitte, lasst uns diskutieren, welche Rechte, welche Freiheiten uns wichtig sind. Ansonsten gibt es hier so strukturelle Veränderungen, die nicht mehr rückgängig zu machen sind. Also, wir sollten vorher und rechtzeitig darüber nachdenken, wie wir unser Mensch-Maschine-Verhältnis positiv gestalten können.
Heise: Das Beispiel, das Sie gesagt haben, die Aktienhändler, die jetzt quasi schon von den Maschinen ersetzt werden. Da sieht man ja auch teilweise, was dann eben für Arbeitsplätze auch nach und nach wegbrechen. Das sind eben dann doch immer mehr die der ausgebildeten Mittelschicht. Auch ein Problem.
Hofstetter: Genau. Das ist richtig, es ist für eine Maschine, auch wenn sie intelligent ist, also in dem Fall für einen Roboter, immer noch schwieriger, einen Siphon zu reparieren, als beispielsweise eine Handelsentscheidung an der Börse zu treffen. Das heißt also, diese Blue-Collar-Jobs sind jetzt nicht so sehr gefährdet, aber die White-Collar-Jobs, also das, was zum Beispiel leichtere administrative Arbeiten sind, die sind gefährdet.
Und das ist ein Problem für unsere Sozialsysteme, denn Sie müssen sich das so vorstellen, dass das, was heute an Arbeit bezahlt wird, sozialversicherungspflichtiger Arbeit bezahlt wird, das wird dann später, wenn das eine Maschine erledigt, in Form von Lizenzgebühren, Nutzungsgebühren erhoben und fließt dann natürlich nicht mehr in die Sozialsysteme hinein, sondern fließt dann quasi den Investoren zu, die die Entwicklung dieser Maschinen bezahlt haben.
Heise: Jetzt haben Sie immer wieder darauf hingewiesen, einerseits, wir sollen diskutieren darüber in der Gesellschaft oder jeder soll sich darüber erst mal klar werden. Sie empfehlen uns eine Datendiät, habe ich gelesen, möglichst wenig digitale Daten produzieren. Aber da frage ich mich, wie soll das denn jetzt konkret gehen in der heutigen Arbeits- und Lebenswelt, die ständige Erreichbarkeit fordert, Informiertheit – das sind Kriterien des Erfolgs.
Hofstetter: Sie sollten einfach mal ausprobieren, einen Tag in der Woche ohne irgendwelche Gerätschaften auszukommen. Und dann schauen Sie mal, was das mit Ihrem Familienleben macht, was das mit Ihren nachbarschaftlichen Beziehungen macht, was das mit Ihrer Kommunikation tut. Datendiät heißt ja nicht, dass wir uns völlig davon absondern sollen, das können wir ja auch gar nicht mehr, das tue ich selbst ja auch nicht, obwohl ich eben entsprechende Bedenken habe. Aber einfach kontrolliert zu nutzen und verantwortungsvoll damit umzugehen, was wir ins Netz stellen, das ist wichtig. Denn im Netz wird beispielsweise auch nichts mehr vergessen. Die Daten, die irgendwann mal erhoben sind, sind da, für immer.
Heise: So einen Tag der Diät machen Sie, der Datendiät, in der Woche?
Hofstetter: Ja, mache ich.
Heise: Yvonne Hofstetter, Geschäftsführerin eines auf Datenanalyse spezialisierten Unternehmens. Ich danke Ihnen ganz herzlich!
Hofstetter: Ich danke Ihnen, Frau Heise.
Heise: Im Radiofeuilleton heute Nachmittag, zehn nach vier, beleuchten wir übrigens einen weiteren Aspekt der künstlichen Intelligenz. Uns interessieren da die Versuche, Kampfrobotern ein Gewissen, eine Moral beizubringen.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.