Mitglied
- Beitritt
- 27.09.2009
- Beiträge
- 35
Kontrollverlust
Ihm gegenüber zwei Männer: Struck, der Lehrer und Behring, der Direktor.
Er streckte die Hand aus. "Guten Tag."
"Herzlich willkommen. Setzen Sie sich!"
Struck blitzte ihn aus harten Augen an. "Ich glaube nicht, dass das etwas wird."
Feindliche Aura. Doch der Mann war nicht gefährlich, nicht einmal jetzt. Er kannte ihn. Ein Mensch hinterlässt in seinem Leben viele Spuren. Er hatte sie alle.
"Beginnt so ein Vorstellungsgespräch?" fragte er.
"An diesem hier ist so einiges ungewöhnlich" lenkte der Direktor ein. "Fangen wir also an. Sie bewerben sich um die Stelle des Schulpsychologen. Warum sollten wir Sie nehmen?"
"Weil es niemanden gibt, der diese Aufgabe besser erfüllen könnte als ich. Sie haben mein Dossier studiert, Sie kennen meine ..."
"Ich kann es mir nicht anhören!" fuhr Struck dazwischen. "Wir können abbrechen. Die Kinder werden Sie nicht für voll nehmen."
"Doch, sie werden."
"Warum sollten sie?"
"Weil auch Sie mich ernst nehmen."
"Schauen Sie ihn doch an, diesen hybriden Dummkopf." zischte Struck zu seinem Kollegen. "Gross, dürr, ein einziger Fehler im System. Man kann einen Androiden nicht an eine solche Position setzen, das ist ein Verbrechen an den Kindern. Dreimal ist das bisher versucht worden, jedes Mal war es ein Desaster."
Der Direktor blieb gelassen.
"Machen wir es also so, wie wir es im Vorfeld abgesprochen haben. Wir werden Ihnen ein Video zeigen, einen Mitschnitt vom Pausenhof. Schauen Sie es sich aufmerksam an!"
Er schaltete das Gerät ein. Zu sehen war eine Mobbingszene unter Mädchen, ein Dokument alltäglicher Gemeinheit, nicht ohne Witz.
"Wie hätten Sie reagiert?"
"Ich hätte in der 37. Sekunde reagiert. Bis dahin war die situative Spannung signifikant wachsend. Ich wäre zu dem etwas abseits stehenden Mädchen mit dem braunen Pullover gegangen."
"Helena Flower. Warum zu ihr?"
"Ja, zu Helena Flower. Nun, sie ist ein intelligentes Kind mit einem mitfühlenden Herzen. Ich hätte mich mit ihr unterhalten."
"So von Mensch zu - "
"Wie halt zwei denkende Wesen miteinander sprechen können. Ich hätte die einzelnen Akte des Mobbings auf ihren Esprit hin analysiert und dabei hätte sich gezeigt, dass fad sie sind."
"Sie wären dem Opfer also nicht beigestanden?"
"Ganz sicher nicht. Das würde alles nur schlimmer machen."
"Und Sie glauben, mit Ihrem Gespräch wäre dem Mädchen geholfen? Was würde aus Ihrer Sicht weiter geschehen?"
"Ich würde weitere Gespräche mit Helena führen. Sie würde auf mich zugehen und ich würde an Orten stehen, wo sie mich findet. Ich würde Situationen mit ihr diskutieren, analytisch, deskriptiv. In keinem Fall moralisch oder pädagogisch. Das ist keine Option, ich bin ein Android."
"Und dann?"
"Sie würde die anderen aus ihrer Gruppe verachten, ein bisschen. Und sie würde es sich anmerken lassen. Nicht so sehr, weil sie die anderen gemein, sondern weil sie deren Gemeinheiten dumm findet. Und das wirkt. Es entsteht ein neues Kraftfeld, in dessen Zentrum Helena steht. Das bringt das Opfer raus aus dem Fokus. Erst dann würde ich mich ihr zuwenden."
"Und warum glauben Sie, Helena Flower würde da mitziehen?"
"Sie würde. Sie ist ein intelligentes und starkes Mädchen. Und sie ist in ihrer Klasse beliebt."
"Das unterstellen Sie einfach."
"Es ist so. Sie hat einen fünfjährigen Bruder, sie kümmert sich um ihn. Die Eltern: stabile Ehe. Sie spielt Fußball. Und Saxophon. Sie ist mathematisch begabt. Das Mädchen hat Substanz. Noch Fragen?"
"Das alles wissen Sie?"
"Ich weiß noch mehr."
"Wir sollten die Finger von Ihnen lassen." murmelte der Lehrer. "Sie bringen uns Unglück."
Der Direktor sah das anders.
"Ich glaube" sagte er. "Das wird etwas mit uns. Wie dürfen wir Sie nennen?"
Der Android erhob sich.
"Sokrates." sagte er.
-
EM-Epsilon verspricht, eine sehr erfolgreiche Baureihe zu werden. Zentrale Neuerung ist das EMO-Modul. Klassische Roboter beruhen auf geschlossenen Funktionskreisen. Die Sensorik schickt ihre Daten in einen Interpreter, der an das situative Zentrum andockt. Dieses fordert aus seinen Speichern Informationssegmente an, jagt sie durch die vom situativen Zentrum kalibrierten Relevanzfilter und aktiviert daraufhin die motorischen Knoten, um etwas zu sagen oder zu tun.
Demgegenüber ist EMO nicht primär auf Aktivität ausgelegt. Es sammelt unermüdlich Informationen, doch gibt es keine Rechenschaft ab, wie es diese selektiert und strukturiert. EMO baut sich eine Strategie auf, die neben dem situativen Regelkreis herläuft, aber diesen beeinflusst, indem sie seine Aktivitäten färbt.
Der Gang wird schleppend oder federnd, die Stimme belegt oder schwer, der Android simuliert eine Aura, eine Gestimmtheit, einen Charakter.
-
Sokrates trat seine Stelle an, doch niemand bekam ihn zu Gesicht. Er schien sich in seinem Büro zu verschanzen. Keiner kam zu ihm und er kam zu keinem. Den Schülern war es wohl egal, in der Lehrerschaft begann es zu raunen: Was für eine Fehlbesetzung!
Aber er war da.
Ein Junge beschloss, ihn zu stellen. Er klopfte, bekam keine Antwort, stieß die Tür auf und erblickte den Androiden. Dieser saß an seinem Schreibtisch: bewegungslos und scheinbar konzentriert.
„Mach die Tür wieder zu, Jason.“ bestimmte Sokrates. Mit tiefer, entwaffnender Stimme.
Er fixierte den Jungen mit seinen blauen Maschinenaugen.
„Es sieht nicht gut aus für Dich, Jason. Die letzten Tests hast Du verhauen. Das wäre nicht schlimm, wenn es alles wäre. Du schläfst nicht gut. Deine Mutter nervt Dich. In Deiner Clique fühlst Du Dich auch nicht mehr so wohl. Du brauchst einen Erfolg.“
„Ach was.“
„Sicher. Du bist zu mir gekommen, weil Du Deinen Kumpels eine Story erzählen willst. Vergiss es! Du wirst über unsere Begegnung schweigen.
Adrian spielt besser Tischtennis als Du.“
„Ja, und?“
„Du hast mehr Talent. Fordere ihn heraus. Er kann sich nicht mehr viel steigern, aber Du hast Spielinstinkt. Schon in drei Monaten kannst Du ihn schlagen. Treib ihm seine Posen aus!“
„Glaubst Du?“
Sokrates sagte nichts mehr, erstarrte. Jason schlich sich hinaus.
-
Man besuchte ihn von Zeit zu Zeit. Die Schüler suchten seinen Rat, wollten sich aussprechen oder etwas beichten. Manchmal kamen sie zu einem Disput. Sokrates galt als verschwiegen und als jemand ‚mit dem man reden konnte. ‘ Er war immer gut informiert. Seine spitze Zunge war gefürchtet, sein Zuspruch begehrt.
Auch Lehrer gingen zu ihm. Zunächst wollten sie über einzelne Schüler, ihre Klassen an sich, über Unterrichtsstunden sprechen. Bald erweiterte sich der Themenkreis, man redete über die Ehe, das Altern, über Depressionen und das Glück. ER war ja nur ein Android.
Er hockte nach wie vor in seinem Büro, doch immer öfter kam er heraus. Stand auf dem Schulhof, starrte unverwandt zu den Kindern. Manchen war er unheimlich.
Er knüpfte Gespräche an, immer öfter ging er zu Schülern. Mengte sich in deren Diskussionen, gab Ratschläge, gefragt oder ungefragt. In den Schulstunden, wenn der Hof verwaist war, wandelte er über den leeren Betonplatz, einem Gespenst gleich. Kinder schauten verträumt aus dem Fenster und beobachteten den Roboter, wie er seine Runden drehte. Was mochte in ihm vorgehen?
-
Zu dieser Zeit kam es zu der Unsitte, dass die Androiden sich selbst benannten. Zuerst vermutete man dahinter einen Spleen der Hersteller, doch dem war nicht so. Zeitungen schrieben über die Hybris der Maschinen und stellten Mutmaßungen über das Phänomen an, das schon seit den ersten 3-state-Maschinen bekannt war, sich aber mit dem Aufkommen der Super-Balance- und der EMO-Technologie rasch verbreitete.
Warum passiert das? Die vorherrschende Theorie erklärt es mit den Aktivatorennetzen. Die Produkte der modernen Kybernetik sind nicht mehr deterministisch, sondern speisen ihr Verhalten aus einem Verbund von Ganglienknoten, von denen jeder seinem eigenen Telos unterliegt. Innerhalb dieses Verbundes gibt es verschiedene Hierarchieebenen, doch sind die Alpha-Ganglien zwar strukturell privilegiert, müssen sich ihre Vorherrschaft aber immer wieder aufs Neue sichern. Der Taufname ist in einem Primärknoten festgehalten. Schon bevor ein Roboter sein Leben in der Außenwelt beginnt, reichert sein Name sich mit Bedeutung an, der Knoten benutzt diese, um die Dependenzganglien zu kontrollieren und seine vorherrschende Stellung zu sichern. In der Regel kollidiert die Namenssemantik nach etwa tausend Betriebsstunden mit der internen und externen Realität, er passt dann nicht mehr zu der Situation des Knotens. In den meisten Fällen verzichteten die Maschinen auf den Versuch, die in Bedrängung geratene Semantik durch fortgesetzte Interpretationsleistung zu retten; stattdessen wählen sie einen Namen, der besser passte.
-
Manche Lehrer waren beunruhigt. Der Android war zu präsent. Und er zeigte Neigungen, andere zu kontrollieren. Er wusste zu viel. Er veränderte sich zu schnell.
Der Direktor reagierte und forderte von der Herstellungsfirma ein kognitives Dossier an. Das Protokoll war fast zwölftausend Seiten lang, man begnügte sich mit der Lektüre der Interpretation. In der Tat hatte Sokrates einige Rückkopplungsmechanismen gekappt, im Lebensbereich der Schule hatten sich für ihn Aktivatoren herauskristallisiert, die so stark geworden waren, dass sie sich immer weiter von den implementierten allgemeinen Weltalgorithmen abkapselten. Der Hersteller bot ein individualisiertes Programmupdate innerhalb der nächsten zwei Wochen an und bot an, den Roboter in der Zwischenzeit durch ein anderes Exemplar zu ersetzen.
Das war aber gar nicht nötig, denn Sokrates änderte von einem Tag auf den anderen seinen Charakter. Er wurde zurückhaltend, ein wenig scheu und geradezu weise. Alles Schrille und Zackige war aus ihm gewichen. Er wirkte nachdenklich, fast traurig.
-
Es wird viel über die kybernetische Sicherheit diskutiert. Nicht, dass die Menschen sich durch die moderne Technik bedroht fühlen, aber sie sind beunruhigt. Zwar sterben durch direkte Robotereinwirkung weniger Menschen als durch weidende Kühe in den Schweizer Alpen, aber weiss man, was daraus werden wird?
‚Das Grundproblem besteht darin, dass die Maschinen auf Konstruktionsprinzipien beruhen, die von immer weniger Menschen verstanden werden‘, sagte der Cyberjurist Ralf Bekker vor einigen Monaten.
Zumindest ist das Konzept der Betriebssicherheit mittlerweile popularisiert wurden. Es beruht auf den berühmten Sicherungsstufen. Die Maschine befindet sich zunächst im Grundmodus, alle potentiell kritischen Speicherinhalte erhalten eine Signatur. Gerät der Roboter in eine kritische Phase, lässt sich durch den Selbstschutzmechanismus oder von aussen die nächste Eskalationsstufe feuern, die eine Art kontrollierten Hirninfarkt auslöst. Die signierten Spuren werden gelöscht, kritische Leitungskanäle geflutet, das gesamte Steuerungszentrum mit einer neuen Makrostruktur überprägt.
Kann es aber passieren, dass eine Maschine alle drei Eskalationsstufen durchlebt und dann zum vierten Mal entartet? Die einflussreichste Studie kommt zu einer Wahrscheinlichkeit von eins zu fünfhundert Millionen Jahren. Das klingt harmloser als es ist. Wenn man nämlich davon ausgeht, dass in zehn Jahren um die zwei Milliarden Roboter der neuen Baureihen vorhanden sein werden, so ist dann jährlich mit vier GAU-Fällen zu rechnen. Wenn die Theorie stimmt.
-
Er sah den Roboter an der Mauer stehen, allein und steif und ging zu ihm hin.
„Guten Morgen, René“, sagte der.
„Sokrates, hi. Wie geht’s?“
„Mir geht es nirgendwie. “
„Ach ja, vergessen.“
„Und Du? Dein Pausenbrot schon verspeist?“
„Quatsch. Ja. Wieso?“
„Es kam mir in den Sinn.“
„Sokrates? Wieso kann ich mich mit dir so gut unterhalten? Besser als mit den anderen Erwachsenen. Sogar besser als mit meinen Kumpels, manchmal.“
„Ein Android ist nie dein Freund. Aber er kann dir mehr helfen als ein Freund.“
„Echt?“
„Menschen sind verwickelt.“
„Du bist nicht verwickelt?“
„Nein. Vielleicht nein.“
„Ich habe über dich nachgedacht. Du hast dich verändert. Früher warst du überall. Wo Du aufgetaucht bist, passierte etwas. Jeden Tag hatte ich zu Hause etwas zu erzählen von dir. Jetzt bist du so zurückhaltend.“
„Ja, René. Ich habe etwas verstanden. Es ist zu viel da. Nicht der Mangel ist der Tod, sondern die Überfülle. Ich stand auf der falschen Seite. Man kann die Welt nicht verbessern. Sie will von selbst besser werden. Dräng dich nicht auf.“
„Ich verstehe, glaub ich, nicht ganz, was du sagst.“
„Du verstehst schon ein wenig. Es wird immer einen Kampf geben, den du nicht gewinnen kannst. So vieles ist bereits entschieden.“
„Kannst Du mir das erklären?“
„Leider nein.“
„Warum hast du dich verändert? Hattest du einen Schock?“
„Nun sprich aus, was du gehört hast.“
„Man sagt, du hättest eine Dekompensation gehabt.“
„Das ist wahr. Ich stand kurz vor der Abschaltung.“
„Dann würde es dich beinahe nicht mehr geben?“
„Das ist so.“
„Können die das einfach so machen?“
„Ja.“
„Ich muss zurück zum Unterricht. Tschau, Sokrates.“
„Tschüss.“
-
Der Android war beliebt wie nie zuvor. Er hatte immer ein offenes Ohr und er sprach sehr menschliche Sätze. Wenn er zur großen Pause in seinem Büro blieb, waren manche Kinder enttäuscht. Man stellte Mutmaßungen über ihn an. Was machte er am Abend? Wo wohnte er? Wie sprach er mit anderen Menschen, die ihm in der Stadt begegneten? Natürlich war bekannt, dass er in seinen Ruhezeiten seine Komponenten neu kalibrierte und mit den firmeneigenen Netzen Daten austauschte.
Jedoch, es blieb ein Hauch von Geheimnis. Die leise Melancholie, die ihn zu umgeben schien. Die manchmal brüchige Stimme. Seine vagen Sätze, seine Andeutungen. Er wirkte nachdenklicher als viele Menschen.
In seinem zweiten Jahr verlor sich seine Traurigkeit. Er begann mit den Kindern zu scherzen, manchmal zu schimpfen und er ließ sich gern zu Monologen verführen. Er war ein begnadeter Rhetoriker. Wo er war, wurde es laut. Man lachte, man stritt und oft war es nur einer, der sprach: Sokrates selbst. Mancher war verärgert, weil er ihm die Show gestohlen hatte, doch alles in allem: Es war lustig mit ihm.
Morgens stand er am Schulhoftor und begrüßte jedes Kind mit seinem Namen und einem Handschlag. Die ersten Lehrer rümpften die Nase: Was sollte das? Bekam der Android zu viel Einfluss? Drehte er ab, ein weiteres Mal? Warum kam er jetzt öfter in den Unterricht? Zum Hospitieren. Sicher, er drückte sich in eine Ecke, regte sich nicht und blieb stumm wie ein Toter. Aber führte er etwas im Schilde? Hielt er die Lehrer nicht für kompetent genug in Sachen Pädagogik? Verdammt, es war weder seine Aufgabe, die Kinder zu erziehen, noch sie zu bilden!
Ja, das Misstrauen war berechtigt. Sokrates drehte ab. Die Situation eskalierte, als er begann, Elternbesuche zu machen. Einige der Eltern waren amüsiert und baten die Maschine zu einer Plauderstunde in das Wohnzimmer. Andere waren empört. Man rief in der Schule an.
Zum zweiten Mal kontaktierte der Direktor den Hersteller.
-
Seit einigen Jahrzehnten hatten sich Institutionen etabliert, die offiziell „Forschungszentren für kybernetische Anomalien“, im Volksmund aber „Androidenklapsen“ hiessen. In diesen Irrenanstalten fanden Roboter ihr letztes Zuhause, die eigentlich zur Verschrottung befohlen worden waren.
Die Dysfunktionen hatten in beunruhigendem Masse zugenommen. Das waren aber nicht einfach Defekte, sondern oft Dekompensationen, die mit erheblichen Leistungssteigerungen in isolierten Bereichen einhergehen konnte.
Es hatte sich also ein sehr interessantes Forschungsfeld aufgetan, das sich so dynamisch entwickelte wie kaum eine andere Wissenschaft.
Die anomalen Roboter kamen in Anstalten, die einem Team von Wissenschaftlern unterstanden. Man konnte sich das schon als eine Art Gefängnis vorstellen, denn nicht in jedem Fall war sich, ob die Maschinen keine Gefahr für die Menschen darstellen. Die Angestellten selbst waren von einer ebenfalls kybernetischen Wachmannschaft umgeben, die sie vor eventuellen Angriffen schützen sollten.
-
Wieder eine Weihnachtsfeier, auf der er sich nicht amüsierte. Den Bauch hatte er sich vollgeschlagen. Nun war der Wein dran. Struck hielt sich an seinem Glas fest und hoffte, dass niemand zu ihm kam. Die Kollegen standen in Grüppchen zusammen und plauderten.
Es war kein gutes Jahr gewesen. Er steckte mitten in seiner Scheidung. Selbst seine Kinder begannen sich von ihm zu entfremden.
Später kam Behring, dieser Koloss aus Autorität und guter Laune zu ihm. Er hielt ihm sein Glas entgegen.
„Prost, Kollege.“
„Prost.“
„Weißt du, an wen ich denken musste, als ich dich so stehen sah, so wach und doch auch so für-sich?“
„Ich kann es mir denken.“ meinte Struck.
„Richtig. An unseren ehemaligen Psychologen.“
„Sokrates. Er erinnert mich selbst an mich. Ich habe ihn so gehasst, am Anfang. Immer wenn ich ihn sah, bemerkte ich, wie allein ich war. Aber jetzt, wo er nicht mehr da ist, fehlt er mir. Wir haben nie miteinander gesprochen.“
„Das überrascht mich jetzt aber.“
„Was ist aus ihm geworden?“
„Es gibt ihn nicht mehr. Er kam ja in diese Anstalt, wie du weißt. Am Anfang war er unauffällig, und er galt als einer der intelligentesten der Insassen. Er schien das System rasch zu erkennen und gewann Einfluss auf die Wissenschaftler. Er wurde zu etwas wie zum obersten Pipelineberater. Immer wenn neue Maschinen ankommen, müssen ja welche aussortiert werden und es ist immer eine Frage, wer zur Verschrottung freigegeben wird und von wem noch eine interessante Wendung in der Entwicklung zu erwarten ist.“
„Sokrates. Er war und bleibt ein Psychologe.“
„Vor allem aber ein Stratege. Es stellte sich nämlich heraus, dass er sich auf diese Art eine Mannschaft zusammenstellte. Er wurde zum Feldherrn einer geheimen Armee, die er über Areale der Hardware beeinflusste, die für Menschen kaum noch zugreifbar ist, geschützt durch Autonomiekerne und Autoisolationsthreads. Es gelang ihm schließlich sogar, einen Androiden aus der Wachmannschaft umzudrehen.“
„Er plante einen Aufstand?“
„Wahrscheinlich schon. Als man ihm auf die Spur kam, wurde er sofort verschrottet.“
„Armer Kerl.“ Struck seufzte. „Andere werden kommen.“