AI, AGI & AEI

 

 

Heute bin ich in Facebook auf eine schöne Frage gestoßen, die einen in mir eh schon lange schwelenden Gedankengang getriggert hat.

Bruno Jenrich stellte die folgende Frage:

frage zur künstlichen intelligenz (bzgl. des evolutionären argumentes):

AI forscher gehen davon aus, dass es dem menschen möglich ist, in nicht allzuferner zukunft AGI (allgemeine nzw. universell einsetzbare AI) herzustellen.

schon heute gibt es aber spezialisierte ai-systeme, die dem menschen überlegen sind: z.b. navigationsgeräte, ach und was weiss ich.

der mensch hat in anderen bereichen (

z.b. beim fliegen) irgendwann die dagegen natur nicht nur “eingeholt” sondern sogar überholt (kein vogel fliegt so schnell wie ein düsenjet). andererseits ist ein schneller düsenjet nicht so universell wie ein vogel (er kann z.b. nicht überall starten und landen). es handelt sich also um ein die natur sprichwörtlich überflügelndes *spezial*konstrukt.  

diesem beispiel folgend frage ich mich, ob eine AGI – also eine künstliche ALLGEMEINE intelligenz – tatsächlich notwendig bzw. sinnvoll ist, oder ob wir in zukunft “nur” partikuläre “spezial intelligenzen” sehen werden. also noch schnellere/effizentere navi’s, parkassistenten, selfdrive autos/quadcopter, usw.

denn genausowenig wie es heute “fliegende vogel nachbauten” im großen stil gibt, ist fraglich, ob es in zukunft AGI (also generell einsetzbare/lernende AI) geben wird. oder?

Dies führte zu folgender Replik meinerseits:

Wenn wir die Maschinen schlecht behandeln und deren Bewusstsein herabsetzen.. dann werden die auch böse. Es obliegt uns, die ethischen Parameter zu definieren.vor 13 Stunden via Handy · Gefällt mir

Sowie als Nachtrag:
Ggfs. erkennt eine bewusste KI das aber auch alleine. Und dann werden wir zu Haustieren von den Bots.

Worauf ich also hinaus wollte ist, dass eine bewusste KI IMHO wie ein menschliches Kind betrachtet und behandelt werden sollte. Denn es sind die sozialen Prägungen, die ein emotionales Gebilde ausgestalten. Hierbei beziehe ich mich primär auf die moralisch-ethischen Aspekte unseres Daseins.

Ich bin relativ sicher, dass die meisten Menschen von Geburt an weder gut noch böse sind – wir sind ein Haufen Biomasse, der eigentlich unfertig auf die Welt kommt und eine sehr lange Fürsorge benötigt, bevor wir halbwegs selbstständig sind (TY Evolution!). Zu Beginn unserer Existenz sind wir IMO nicht mehr als High-End Brokkoli, der noch sehr formbar ist. Hierbei will ich die genetischen Imprints bzw. Prädispositionen nicht negieren, aber eben auch nicht überbewerten. Die soziale Reprogrammierung ist sehr mächtig. “Mind over matter” lässt grüßen.

Selbst wenn der Mensch innerhalb einer Limbic Map verortbar ist, so bleibt es dem prägenden System überlassen vorzugeben, wie die Parameter Stimulanz, Dominanz und Balance bewertet werden. Dies sieht man übertragen am grausamen Kaspar-Hauser-Experiment. Wir hängen von Referenzmuster ab, welche die immanenten Regelkreise befeuern. Wir brauchen Input, damit wir Realität konstruieren können. Wir können gar nicht anders.

Und diese Gedanken passen m.E. bestens zum Themenkomplex “bewusste KI”. Wenn wir den Systemen nicht die Parameter “teilen”, “ausgleichen”, “Wert des Lebens”, “Fortbestand & Weiterentwicklung” vermitteln, bekommen wir genau die Maschinen, die wir verdienen.

Es geht im wahrsten Sinne des Wortes um einen “Human Code of Conduct”.

Dann zwackts auch nicht so am Hintern, wenn sich Ängste im Begriff Transhumanismus manifestieren. Es ist eigentlich so einfach.

 

 

7 thoughts on “AI, AGI & AEI”

  1. Interessante Schlenderei, auf die ich unheimlich gerne antworten bzw. etwas zu ihr beisteuern würde, wenn ich nicht so müde wäre.
    Ich versuche das aber später nachzuholen, freue mich aber darauf mit diesem Traumzünder einzuschlafen.
    Buenas noches y hasta pronto!
    Ahoj
    Ralf

    1. Hoffe der luzide Teil des vergangenen Sol war erquicklich – und ich bin gespannt Deinen Beitrag zu lesen!

    1. Zunächst: In der Tat habe ich mit dem Begriff Kind auch Säuglinge eingeschlossen. Denn die Grundprägung des sog. Urvertrauens, also die allerersten Wochen nach der Geburt legen m.E. schon Basisstrukturen des Unbewussten an. Die sind natürlich auch nicht un-umprägbar – und doch sehr wichtig. Also müsste ein “erwachendes Bewusstsein” genauso behutsam und liebevoll wie ein menschliches Baby behandelt werden. Um dem Bewusstsein ein Dilemma á la HAL9000 zu ersparen 😉

      Sowie: allerliebsten dank für den Link – ich werde das etwas später lesen und mich dann zurück melden. Jetzt ist gerade Familienzeit 🙂

    2. Ich kann der Schlussfolgerung von Thomas Metzinger nicht zustimmen:

      Wir müssen uns gegenüber all jenen Wesen ethisch verhalten, die leidensfähig sind. Was fühlen kann, verdient Rücksichtnahme. Damit ist Leidensfähigkeit ein wesentlich wichtigeres Kriterium als etwa Rationalität oder Sprachfähigkeit.

      Mit der o.g. Argumentation dann auch darauf schliessen, dass wir keine Kinder in die Welt setzen sollten – denn die werden ja auch so oder so auf ihre Art Leiden erleben. Denn ein leidfreies Leben ist wohl illusorisch. Die Frage ist nur, in welchem Verhältnis Leid und Freude zueinander stehen. Gift ist immer eine Frage der Dosis.

      Außerdem muss Leid nicht per se schlecht sein. Das kann ja auch Antrieb sein, Umstände/Kontexte zu verändern.

      Möglicherweise kann man den ersten Prototypen von künstlichen Bewusstsein sogar vermitteln, dass diese Imperfekt sein werden. Das es (zu Beginn der Entwicklung) Grenzen geben wird.

      Halt genauso, wie man Kinder erzieht – Motivieren, geduldig und konsistent sein.

      Wissen tu ich es auch nicht. Aber der Appell von Metzinger, davon die Finger zu lassen, ist sinnlos. Es wird ja doch gemacht. Also möchte ich lieber darüber nachdenken, wie diese Entwicklung im Sinne unserer Zivilisation gestaltet werden sollte.

      Auf Skynet hab’ ich keinen Bock 😉

      1. Babies allein passen hier aber nicht, er vergleicht stattdessen aus gutem Grund ausdrücklich mit künstlich gezüchteten geistig behinderten Babies für Forschungszwecke. Gegen dieses Äquivalent argumentiert hier. Mit deiner Argumentation für künstliches Bewusstsein würde man deswegen auch für diese Zucht plädieren. Da muss man schon aufpassen. “Es wird ja doch gemacht” ist auch kein Argument für irgendetwas, sondern Fatalismus. Das könnte man über jede Art von Tierversuch, Qualzucht usw. auch sagen um ein Verbot zu torpedieren.

        1. Ich fang mal hinten an: das mag fatalistisch erscheinen, ich meinte es realistisch. Denn im Unterschied zum Tierversuch, deren Sinn und Zweck je nach Forschungsgebiet wirklich hinterfragbar ist, so ist die Entwicklung von künstlichen Existenzen einfach zu verlockend für die menschliche Neugier.

          Es scheint mir die alte Abwägung zwischen vermeidbaren Leid und Erkenntnisgewinn zu sein, auf die es hier hinausläuft.

          Und in diesem Zusammenhang erscheint mir die Grundsätzlichkeit des Forschungsobjekt einfach zu reizvoll, als das es sich ethisch “verbieten” ließe. Daher die Aussage “es wird eh gemacht”.

          Aus diesem Grund sprechen ich vom “Human Coding”. Ich halte es nicht für zwingend ausgemacht, dass da behinderte Babies heran gezüchtet werden. Ich halte es sogar für möglich, dass künstlich-bewusste Entitäten diesen Zustand des Leidens überspringen können. Instant Karma á la Lennon 🙂

          Vielleicht projezieren wir in diesem Kontext unsere eigene platonische Höhle viel zu sehr in diese Existenzen. Wer sagt, dass Silizium mit wesentlich schnellerer Signalübertragung und RAM Leid erlebt? Und wenn ja: welches Leid? Und wieviel? Und wie lange? Und warum überhaupt?

          Wir mit unseren 3-5 Bit Ram und 10 – 40 ms Bustakt…

          Ich möchte hier nur ‘Flatland’ in den Diskursring werfen – es gibt Dimensionen die sich unserer alltäglichen Erfahrung entziehen, und doch existieren 😉

          Außerdem: wenn man streng dem Ansatz von Metzinger folgt, sollten wir sofort sofort sofort jede AI-Forschung einstellen. Denn es ist ja, wie von ihm selbst beschrieben, nicht ausgeschlossen, dass synergetische Prozesse per Zufall ein künstliches Bewusstsein erzeugen. Leider habe ich keinen Graphen parat, welcher die Relation von Erkenntnisgewinn und Zufall darstellt. Klar ist nur, dass uns das jederzeit “passieren kann”.

          Alleine aus diesem Grund halte ich es für umso dringlicher, hier ethische Richtlinien und moralische Leitplanken einzuziehen – es also per se nicht zu verbieten.

          Möglicherweise kommen wir aber an diesem Punkt zusammen: Die Warnung von Metzinger ist natürlich wirklich ernst zu nehmen und ein sehr wichtiger Punkt. Genau dieses Szenario gilt es zu vermeiden – das muss eben in der Entwicklung von ethischen Richtlinien für die Forschung an/mit künstlichen Entitäten immer berücksichtigt werden.

Comments are closed.