www.aec.at  
Ars Electronica 1980
Festival-Programm 1980
Back to:
Festival 1979-2007
 

 

Computerschach


'Frederic A. Friedel Frederic A. Friedel

FRÜHGESCHICHTE
Der Gedanke einer schachspielenden Maschine beschäftigt seit über zwei Jahrhunderten die Phantasie der Menschen.

Zahlreiche Erzählungen und Konstruktionspläne zeugen von der Faszination dieser Vorstellung. Am bekanntesten war der "Türke" des Ingenieurs und genialen Erfinders Wolfgang von Kempelen. Diese Maschine, die offenbar mit Hilfe einer ausgeklügelten Mechanik die Figuren bewegte, spielte ganz vorzüglich Schach und sorgte zwischen 1770 und 1838 für große Aufregung in Europa und Amerika. Indes war es ein Mensch, auf äußerst raffinierte Weise in der Maschine versteckt, der die Züge des Türken bestimmte: die Schachmeister Mouret, Allgaier und Schlumberger haben alle zu verschiedenen Zeiten den Automaten bedient. Von Kempelen, der das geistreiche Spielzeug zur Kurzweil des Wiener Hofstaates entworfen hatte, war über das weltweite Aufsehen seiner auf Täuschung beruhenden Maschine zu keiner Zeit glücklich. Sie ließ die wirklich bedeutenden Erfindungen des Österreichers – er konstruierte unter anderem die erste Maschine zur Erzeugung synthetischer Sprachlaute allzuschnell in Vergessenheit geraten.

Die ersten realen Erfolge auf dem Gebiet der Schachautomaten wurden in der zweiten Hälfte unseres Jahrhunderts erzielt und standen naturgemäß im Zeichen der elektronischen Datenverarbeitung. Pionierarbeit leisteten in den Jahren nach dem 2. Weltkrieg die Mathematiker Claude Shannon in Amerika und Alan Turing in England. Die Engländer, die zunächst durch ihre Erfahrung in der Impulstechnik und der maschinellen Entschlüsselung von Geheimcodes noch die Spitze der Computertechnologie mit den Amerikanern teilten, fielen nach einem Jahrzehnt hoffnungslos zurück. Es ist bezeichnend, daß – mit wenigen Ausnahmen – die interessantesten Schachprogramme der letzten zwanzig Jahre in den USA entstanden, einem Land, das trotz Morphy und Fischer nie zu den großen Schachnationen der Welt gezählt hat.
DAS PROBLEM DER SCHACHPROGRAMMIERUNG
Mit der Entwicklung digitalelektronischer Großrechenanlagen wurde für jedermann offenkundig, daß solche Geräte viele, insbesondere mathematische und logische Aufgaben unvorstellbar viel schneller und effizienter lösen können als der Mensch. Das Schachspiel gilt seit jeher als eine Beschäftigung, die vornehmlich dem logischen Verstand mathematisch begabter Menschen zugänglich ist. Es nimmt daher nicht wunder, daß die ersten Computerwissenschaftler mit einem hohen Maß an Optimismus sich an die Aufgabe machten, spielstarke Schachprogramme zu entwickeln. Die röhrenbestückten Rechenanlagen der 50er Jahre hatten kaum ihre ersten – sehr schwachen – Partien aufs Brett gelegt, da wähnten ihre Schöpfer bereits den elektronischen Weltmeister in Sicht.

Die Euphorie der frühen Schachprogrammierer beruhte auf einem Fehlschluß, dem schon der Schriftsteller Edgar Allan Poe erlegen war. Poe, der 1836 mehrere Vorstellungen des "Türken" besucht hatte, schrieb eine feinsinnige, analytisch durchdachte "Entlarvung", die jedoch unter anderem von folgender Überlegung ausging:
"Ist das Princip erst einmal entdeckt, nach welchem man eine Maschine dazu bringen kann, Schach zu spielen, so bedarf's blos einer Erweiterung solchen Principes, sie das Spiel auch gewinnen, und einer neuerlichen Erweiterung, sie jedes Spiel gewinnen zu lassen, will sagen sie in den Stand zu setzen, jedweden Gegen-Spieler zu schlagen."
(Da jedoch der Türke gelegentlich eine Partie verlor, stand für Poe fest, daß von Kempelens Erfindung nicht rein mechanischer Natur sein konnte!)

Daß dem keineswegs so ist, mußten die Schachprogrammierer in der Folgezeit schmerzlich feststellen. Die Komplexität des Schachspiels schien eine natürliche Grenze zu setzen, die brauchbare Leistungen eines Computers prinzipiell ausschloß. Denn der naheliegende – und tatsächlich eingeschlagene – Weg, vor jedem Zug des Computers eine weitreichende Analyse der möglichen Fortsetzungen vornehmen zu lassen, scheiterte am lawinenartigen Anwachsen, an der "exponentiellen Explosion" der Zahl der Varianten.

In einer durchschnittlichen Schachstellung sind ca. 35 Züge möglich und legal. Soll ein Computer nur zwei Halbzüge – d. h. seinen eigenen Zug und die mögliche Antwort des Gegners) vollständig im voraus überprüfen, so ergeben sich 352–1225 Stellungen, die er bewerten muß. Vier Halbzüge bedeuten 1,5 Millionen Stellungen, sechs Halbzüge fast zwei Milliarden. Dabei kommt es bei Turnierpartien nicht selten vor, daß Zugfolgen bis zu einer Tiefe von sechs bis acht Zügen – 12 bis 16 Halbzügen) überblickt werden müssen!

Schon bei 12 Halbzügen ergeben sich aber 3,4 x 1018 mögliche Stellungen, eine Zahl, die die Anzahl der seit dem Beginn des Universums verstrichenen Sekunden bei weitem übertrifft. Eine umfassende Bewertung von sechs Zügen im voraus wäre demzufolge grundsätzlich unmöglich.

Dieser Sachverhalt führt nachhaltig vor Augen, daß ein Computer nie in der Lage sein wird, perfektes Schach zu spielen. Er beweist aber ebenso endgültig, daß der Mensch noch viel weniger dazu in der Lage sein kann.

Wie kommt es nun, daß gute Schachspieler Zugfolgen bis zu einer Tiefe von 14 und mehr Halbzügen überblicken können? Offensichtlich ziehen sie nur einen mikroskopisch kleinen Teil der möglichen Varianten in Betracht. Nicht einmal die verbreitete Vorstellung, bei Großmeisterpartien rechneten die Kontrahenten Hunderte von Stellungen mit ungeheurer Geschwindigkeit durch, trifft zu. Der holländische Psychologe Adrian de Groot führte in den 30er und 40er Jahren eine Reihe von Experimenten mit Schachspielern durch und entdeckte, daß gute Spieler verhältnismäßig wenige Varianten untersuchen: Großmeister ziehen durchschnittlich nur zwei Züge pro Stellung in Betracht und verfolgen danach eine sehr geringe Anzahl von möglichen Fortsetzungen für diese Züge. Sie spielen gleichsam intuitiv, schätzen viele Fortsetzungen schnell, manchmal gar unbewußt ab und berechnen meist mit großer Sorgfalt die Konsequenzen von einem Zug, den sie in den ersten Sekunden gewählt haben und den sie schließlich ausführen. Dabei beweisen sie eine verblüffende Treffsicherheit.

Die Fähigkeit mancher Großmeister durch ein Schachcafé zu spazieren und im Vorübergehen die Spielsituation auf dem Schachbrett zu erfassen, ja sogar die Gewinnaussichten und die stärkste Fortsetzung sicher anzugeben, ist legendär. Man begegnet dieser Fähigkeit auch im Simultanspiel, bei dem der Meister gegen Dutzende von Spielern gleichzeitig antritt und, obwohl er an jedem Brett nur Sekunden verweilt, die meisten Partien erfolgreich beendet.

Es ist klar, daß dem Schachprogrammierer, der angesichts der prinzipiellen Schwierigkeit zu kapitulieren drohte, diese Fähigkeit der Großmeister wie ein Lichtblick in der hoffnungslosen Dunkelheit der Billiarden von Varianten erscheinen muß. Könnte diese Fähigkeit nicht dem Computer vermittelt werden? Wenn bei jedem Halbzug immer nur zwei Möglichkeiten zu berücksichtigen wären, könnte eine heutige Großrechenanlage die 65.536 Stellungen, die sich nach 16 Halbzügen ergeben, leicht in weniger als einer Minute bewältigen.

Schon 1950 erwog Claude Shannon in einem bahnbrechenden Aufsatz über Computerschach diese Möglichkeit, die er die "B-Strategie" nannte und die darin besteht, daß nur eine kleine Teilmenge der möglichen Stellungen vom Computer tatsächlich erzeugt und bewertet wird. Bei der "A-Strategie" dagegen werden alle möglichen Fortsetzungen bis zu einer festgelegten Zugtiefe unterschiedslos überprüft.

Könnte nun ein Computer nach der Shannon B-Strategie programmiert werden, und wäre er dadurch imstande, mit auch nur annähernd der Treffsicherheit eines Großmeisters die zwei oder drei sinnvollen Möglichkeiten pro Halbzug zu bestimmen, über die nachzudenken es sich lohnt, wäre er jedem menschlichen Gegner haushoch überlegen.

Der Teufel steckt natürlich im Detail, hier in der Wahl von "sinnvollen" Zügen. Nach welchen Kriterien soll ein Computer aus 20 bis 40 möglichen Zügen jeweils die zwei oder drei sinnvollen bestimmen? Großmeister – auch diejenigen, die hervorragende Computerexperten sind – können bislang ihre eigene Fähigkeit, sinnvolle Züge zu erkennen, auch nicht ansatzweise formalisieren und für den Computer programmierbar machen.

Seit de Groot weiß man, daß bei Großmeistern das visuelle Erfassungsvermögen eine nicht zu unterschätzende Rolle spielt. (Nicht umsonst stellen Spieler wie Fischer und Kortschnoi detaillierte Forderungen bezüglich der Größe von Schachbrett und -figuren, Beleuchtung, Tischhöhe etc.) Großmeister sehen auf dem Brett weniger eine einmalige Konfiguration aller Schachfiguren als vielmehr eine begrenzte Anzahl von ihnen vertrauten Mustern. Sie erkennen gewissermaßen "Schach-Wörter", die für sie einen bestimmten Sinn und Zusammenhang ergeben.

Die Stellung im obenstehenden Diagramm wird dem Schach-Anfänger nicht allzuviel bedeuten. Betrachtet er die Situation etwa fünf Sekunden lang, so wird er hinterher lediglich die Position einiger weniger Figuren angeben können. Ein erstklassiger Spieler dagegen sieht in diesen fünf Sekunden ungleich viel mehr. Nicht nur, daß er die Stellung sehr genau wiedergeben könnte; er kann auch gleich den Gewinnzug für Weiß nennen (1. Dc5 – führt zum berühmten Erstickungsmatt: 1. … Kg8; 2. Se7 + Kf8; 3. Sg6 + Kg8; 4. Df8 + Tf8:; 5. Se7 + +).

Der Grund hierfür ist, daß der Großmeister eine Reihe ihm geläufiger "Schach-Wörter" erkennt – so etwa die sechs weißen Steine in der rechten unteren Ecke, die ein sogenanntes "Fianchetto" bilden. Für ihn bilden mehrere solcher "Wörter" einen Zusammenhang, der nur wenige sinnvolle Fortsetzungen gestattet. De Groot schätzte, daß ein Großmeister zwischen 50.000 und 100.000 solcher Schachwörter kennt, was etwa dem Gesamtwortschatz (Grundwörter, Stämme, Flexionsformen etc.) eines gebildeten Sprechers einer natürlichen Sprache entspricht.

Wer nun meint, mit dem Erlernen von 50.000 Schach-Wörtern – eine vom Computer in wenigen Sekunden zu bewältigende Aufgabe – sei die Spielstärke eines Großmeisters zu erzielen, verkennt die ungeheure Komplexität der funktionalen Zusammenhänge dieser Wörter, eine Komplexität, die den syntaktischen und semantischen Anwendungsregeln natürlicher Sprachen gleichkommt. In beiden Fällen stehen Computerfachleute vor noch ungelösten Problemen. Insbesondere in der Schachprogrammierung wird deutlich, daß der Mensch bestimmte Fähigkeiten besitzt, die das Erkennen von komplexen Mustern sowie deren Speicherung und Wiedererkennung im hohen Maße begünstigen. Diese Fähigkeit steht auch der modernsten Generation von Großrechnern nur in primitivsten Ansätzen zur Verfügung.
“INTELLIGENTE“ PROGRAMME
Trotz der Unmöglichkeit, die intuitiven Fähigkeiten eines Großmeisters dem Computer zu vermitteln, wählten viele Schachprogrammierer den Weg der Shannon-B-Strategie. Sie wollten durch möglichst viel Schachwissen die Anzahl der Stellungen, die untersucht werden müssen, begrenzen. Die Anweisungen, die zur Bestimmung sinnvoller Züge benötigt werden, sollten aus dem heute verfügbaren Schatz an Schachwissen schöpfen.

Das bekannte Programm "Machack" von Richard Greenblatt vom Massachusetts Institute of Technology, das es immerhin schaffte, Bobby Fischer zum ersten bekanntgewordenen Auftritt seit seinem Weltmeisterschaftssieg 1972 in Reykjavik zu bewegen, untersucht für die ersten beiden Halbzüge nur je 15 Möglichkeiten, für die nächsten beiden je neun und danach sieben. Greenblatts Programm verwendet über 50 Bewertungsfunktionen, um die Auswahl der zu untersuchenden Zugfolgen zu bestimmen.

Die resultierenden Stellungen werden dann nach einem getrennten Verfahren bewertet und der geeignetste Zug gewählt. Obwohl Greenblatts Programm eine relativ große Menge von Schachinformationen verwendet, beruht seine Stärke (untere Landesliga-Klasse) vorwiegend auf der schnellen Überprüfung von immerhin über 100.000 Stellungen pro Zug. Dr. Hans Berliner von der Carnegie-Mellon-Universität in Pittsburgh, der als dreifacher Weltmeister im Fern-Schach über exzellente Kenntnisse verfügt, verwendet noch erheblich mehr Schachwissen und nimmt in Kauf, daß der Computer nur noch 500 Endpositionen pro Zug bewerten kann. Schließlich soll noch in diesem Jahr des Programm "Pionier" des Altweltmeisters Prof. Mikhail Botwinnik zum Laufen gebracht werden. Dieses schon 1970 angekündigte Programm bestimmt zunächst wünschenswerte Ziele, um dann rückwärts gehend den besten Weg zur Erreichung dieser Ziele zu gehen.

Die Shannon-B-Programme haben inzwischen eine achtbare Spielstärke erreicht. Die frühe Hoffnung, man würde alsbald "intelligente" Schachprogramme mit Meisterstärke präsentieren können, erwies sich indes als verfrüht. Trotz unentwegter Anstrengung an vielen Universitäten konnte eine "ELO"-Bewertung von 2000 nicht erreicht werden (auf der internationalen Bewertungsskala für Turnierspieler, wonach starke Clubspieler in der Regel 1800–2000, Ligaspieler 2000–2200, internationale Meister 2200–2450 und Großmeister 2450–2700, im Falle von Fischer gar 2780 Punkte erreichen). Jeder Liga-Spieler kann sich zuversichtlich ans Brett setzen, und ein Internationaler Meister wie der Schotte David Levy, der 1968 eine berühmt gewordene Wette abgeschlossen hatte, es werde innerhalb von 10 Jahren keinem Computer der Welt gelingen, ihn im ernsten Wettkampf zu bezwingen, konnte mit großer Gelassenheit mehrere solcher Programme im Simultanspiel abfertigen.
Noch scheint dieser Weg zum meisterlichen Schachprogramm nicht absehbar, noch läßt sich menschliche Schachintelligenz mit digitalelektronischen Schaltungen nicht rekonstruieren.
DIE GEWALTMETHODE
Während sich die oben geschilderte Entwicklung abzeichnete, gab es eine Reihe von Computerwissenschaftlern, die sich der scheinbar hoffnungslosen Aufgabe widmeten, ein starkes Shannon-A-Programm zu erstellen, d. h. ein Computerprogramm, das ohne jede Differenzierung jeden möglichen Zug bis zu einer bestimmten Tiefe berücksichtigt. Diese Suchtiefe ergibt sich aus der Rechengeschwindigkeit des Computers und der verfügbaren Bedenkzeit von durchschnittlich drei Minuten pro Zug. Die Bewertungsfunktionen für die so erzeugten Endstellungen müssen dabei so einfach wie möglich gehalten werden, um die Bewertungen mehrere tausendmal in der Sekunde durchführen zu können.

Diese von amerikanischen Fachleuten "brute force" (rohe Gewalt) genannte Methode scheiterte zunächst ganz erwartungsgemäß am katastrophalen Anwachsen der Variantenzahl. In der Pionierzeit reichte die Rechengeschwindigkeit der verfügbaren Computer kaum aus, um mehr als drei Halbzüge erschöpfend zu untersuchen. Dementsprechend schwach waren die Leistungen am Schachbrett, ein allgemeiner Pessimismus machte sich breit.

1958 schrieben dann einige Wissenschaftler der Carnegie-Mellon-Universität in Pittsburgh ein Schachprogramm, das nie zum Laufen kam, aber eine grundlegende neue Idee enthielt. Den Pittsburgher Computerspezialisten war aufgegangen, daß größere Teile der möglichen Zugfolgen ignoriert werden können, ohne das Ergebnis der Untersuchung dadurch zu beeinflussen. Führt eine gerade untersuchte Zugfolge zu einem schlechteren Ergebnis als die beste bis dahin gefundene, kann der ganze Zweig des Suchbaums ohne weitere Nachprüfungen verworfen werden, da er dem Gegner auf jeden Fall einen Widerlegungszug gestattet. Andererseits brauchen auch diejenigen Zweige nicht weiter verfolgt zu werden, die mit einem schwachen Zug des Gegners beginnen. Die Autoren des Programms sprachen im ersten Fall von "Alpha-Abschneidungen" und im zweiten von "Beta-Abschneidungen". Das Verfahren ist seitdem unter Schachprogrammierern als "Alpha-Beta-Algorithmus" allgemein bekannt.

Eine mathematische Untersuchung ergibt, daß bei optimaler Anwendung des Alpha-Beta-Verfahrens die Anzahl der zu untersuchenden Endstellungen drastisch reduziert werden kann (von n auf durchschnittlich 2 x 5 n). Waren früher für die vollständige Erfassung von vier Halbzügen 1,5 Millionen Endstellungen zu bewerten, so verringert sich im Idealfall die Zahl auf 2500; für sechs Halbzüge sind es statt zwei Milliarden nur noch 90.000 Bewertungen.

Durch das Alpha-Beta-Verfahren sowie durch zahlreiche weitere Programmierkniffe wurde die Effektivität der Schachprogramme beträchtlich erhöht. Gleichzeitig entwickelte sich die Computer-Hardware stetig weiter und führte zu einer tausendfachen Leistungssteigerung.

Der Siegeszug der Brute-force-Methode konnte beginnen.
DER WELTMEISTER CHESS
1968 begann eine Gruppe von jungen Wissenschaftlern an Chicagos Northwestern University, sich für die Schachprogrammierung zu interessieren. Insbesondere der Ingenieurstudent Larry Atkin und der Diplomphysiker David Slate schrieben eine Serie von Schachprogrammen, die bis 1972 eine recht sehenswerte Version, CHESS 3.6, hervorbrachte. CHESS 3.6 war ein Shannon-B-Programm, das sehr früh im Spielbaum eine Zwischenbewertung ausführte, um "sinnvolle" Züge zu bestimmen. Die Spielstärke gegen menschliche Gegner war recht mäßig, aber sie reichte immerhin aus, mehrere US-Computerschach-Meisterschaften zu gewinnen.

Für die Meisterschaften 1973 beschlossen Slate und Atkin, ihr Programm völlig umzuschreiben und die B-Strategie durch eine Brute-force-Untersuchung aller Zugfolgen bis zu einer bestimmten Tiefe zu ersetzen. Die Bewertungskriterien wurden zum großen Teil vom Gesichtspunkt des Spielmaterials bestimmt: das Programm stellte in erster Linie fest, ob Material dazugewonnen oder verloren wurde. Andere Kriterien, etwa positionelle Vorteile, Feldbeherrschung, Bauernstruktur etc. wurden nur im Gegenwert von 1 1/2 Bauern berücksichtigt. Es gelang, auf einer CDC 6400 über 600 Bewertungen pro Sekunde durchzuführen und damit eine überragende Spielstärke zu erreichen.

CHESS 4.5, wie die 1976 vorgestellte Version genannt wurde, gewann vier US-Computerschach-Meisterschaften hintereinander. Bei der zweiten Computerschach-Weltmeisterschaft 1977 in Toronto siegte CHESS 4.5 vor seinem Hauptkonkurrenten, dem russischen Programm KAISSA, das 1974 in Stockholm Weltmeister geworden war. Erstmals wurden auch aufsehenerregende Erfolge bei menschlichen Schachturnieren verbucht. 1976 gewann CHESS 4.5 das Paul-Masson-Turnier in Saratoga, Californien, indem es alle fünf Gegner rundwegs schlug.

Drei weitere Versionen, CHESS 4.6, 4.7 und 4.8, wurden 1977–1979 präsentiert. Bei der Austragung der Levy-Wette in Toronto 1978 – der schottische Meister gewann 3 1/2 : 1 1/2 – konnte CHESS 4.7 die vierte Partie für sich verbuchen. Es war die erste Gewinnpartie eines Computers gegen einen internationalen Meister unter Turnierbedingungen. Nach dem Wettkampf mit Levy billigten Experten CHESS 4.7 ein ELO-Rating von knapp 2200 zu.
COMPUTERSCHACH HEUTE
Die Fortschritte der letzten Jahre auf dem Gebiet des Computerschachs beruhen nicht zuletzt auf der Verwendung von Mammut-Rechenanlagen, die eine schier unvorstellbare Rechengeschwindigkeit besitzen. Die von der CHESS-Mannschaft häufig eingesetzte CYBER 176 ist beispielsweise in der Lage, in einer einzigen Sekunde bis zu 40 Millionen Zahlen zu addieren. Ein Mathematiker, der alle zehn Sekunden eine Addition ausführt und acht Stunden am Tag arbeitet, benötigte für dieselbe Aufgabe nicht weniger als 38 Jahre!

Eine solche Maschine ermöglicht es, in den drei Minuten, die bei Turnierpartien pro Zug zur Verfügung stehen, über 700.000 Stellungen zu überprüfen. Daraus resultiert eine vollständige Untersuchung von durchschnittlich sieben Halbzügen, wobei Schlagwechsel und Schachgebote weiter verfolgt werden. Das Schachwissen, das bei der Bewertung der errechneten Stellungen Anwendung findet, bleibt freilich minimal. Dennoch reichen die sieben Halbzüge aus, um 99% aller Schachspieler chancenlos zu machen.

Daß ein Computerprogramm mit dem Schachwissen eines blutigen Anfängers nur durch das Abchecken von sieben Halbzügen im voraus derartige Erfolge zu verbuchen vermag, wurde in der Schachwelt – und nicht nur dort vielfach traumatisch registriert. Müßte man nicht angesichts der neuen Gegebenheiten das Selbstverständnis vom Menschen als einzigem rationalem Wesen revidieren? Oder müssen wir nicht eher unsere Einschätzung des Schachspiels als einzig der menschlichen Ratio zugängliche Tätigkeit gründlich überdenken? Tröstlicher wäre es den meisten schon gewesen, hätten die "intelligenten" Programme zur Meisterstärke geführt. Durch den Siegeszug der Brute-force-Methode erhielten die aufgeworfenen Fragen eine besondere Prägnanz.

Die Schachprogrammierung liefert ein interessantes Paradigma für viele Fragen, die in der Diskussion um die Möglichkeit und Verwirklichung von maschineller Intelligenz eine zentrale Rolle spielen. Müssen wir einer Maschine, wenn sie Leistungen vollbringt, zu deren Vollzug der Mensch Intelligenz einsetzt, nicht auch dieses Prädikat zubilligen, unabhängig davon, wie die Leistungen zustandekommen und unabhängig davon, wie einfach und durchsichtig die verwendeten Algorithmen sein mögen? Offensichtlich hieße es den Begriff unzulässig erweitern, wollten wir einem Taschenrechner oder einem Schachcomputer Intelligenz zusprechen. Aber ist ein Kriterium für maschinelle Intelligenz brauchbar, die von der Maschine verlangt, daß die gezeigten Leistungen ähnlichen Strukturen entspringen müssen, wie sie in der rationalen und ratiomorphen Ausstattung des menschlichen Zentralnervensystems vorhanden sind?

Daß diese Fragen einer endgültigen Klärung harren, wissen am allerbesten die Forscher der Künstlichen Intelligenz, wie sich die inzwischen etablierte Disziplin innerhalb der Computerwissenschaft nennt. Je erstaunlicher die Leistungen digitalelektronischer Systeme werden, je mehr sie sich den kognitiven und intellektuellen Fähigkeiten des Menschen nähern, umso dringlicher wird die Erforschung und Klärung solcher Fragen.

Immerhin: für Schachspieler bleibt eine Bastion, die zur Zeit von keinem Computer der Welt überrannt werden kann. Auch Spitzenprogramme wie CHESS und BELLE können nämlich der exklusiven Gilde der Schachgroßmeister nichts anhaben. Zwar hat hie und da ein Großmeister (z. B. Browne, Stean, Pachmann) eine Blitzpartie gegen die Maschine verloren. Wenn es aber ernst wird, wenn man unter Turnierbedingungen spielt, haben die Schachprogramme nicht die Spur einer Chance.

Die Stärke eines Brute-force-Programms liegt darin, daß es bis zu der vorgegebenen Suchtiefe keine Mattwendung, keinen Materialgewinn und keine wesentliche Positionsverbesserung übersieht. Auch gute Schachspieler können sich einer solchen Präzision der Vorausberechnung über kurz oder lang nicht erwehren. Die entscheidende Schwäche solcher Programme dagegen liegt in ihrer vollkommenen Unkenntnis der Welt, die hinter den sieben Halbzügen liegt. Was über den Suchhorizont hinausgeht, existiert für das Programm nicht.
Die strategischen Vorteile, um die bei Großmeisterpartien gerungen wird, pflegen sich erheblich später auszuzahlen als beim überübernächsten Zug des Gegners. Meist sind es winzige, dem Laien kaum verständliche Pointen, die sich erst in der letzten Partiephase zum handfesten Materialgewinn und Mattangriff verdichten. Mit ihrem Erfahrungsschatz und Schachinstinkt vermögen solche Profis zudem drei- und vierzügigen Fallgruben zuverlässig aus dem Weg zu gehen, so daß eine von der Maschine eingeleitete taktische Überraschung stets ausbleibt. Erneut scheint sich zwischen dem schachlichen Leistungsvermögen der schnellsten Computerprogramme und dem der menschlichen Spitzenspieler eine Kluft aufzutun, die die meisten Experten für unüberwindlich halten – jedenfalls in absehbarer Zeit und mit der gegenwärtigen Technologie. Denn eine wesentliche Verbesserung der Bewertungsfunktionen kann nur mit einer Verlangsamung der Verarbeitungsgeschwindigkeit des Programms und somit einer Verringerung der Suchtiefe erkauft werden. Immerhin hat David Slate für sein völlig überarbeitetes CHESS 5.0 diesen Weg gewählt. Mit Hilfe der höheren Programmiersprache Fortran ist es ihm möglich, anspruchsvollere Bewertungsfunktionen anzuwenden, freilich mit dem Ergebnis, daß sein Programm nunmehr wesentlich langsamer läuft. Um dennoch die Spitze zu halten, setzt er einen Mammut-Rechner (CRAY 1) ein, der knapp dreimal so schnell ist wie der Cyber 176. Das Ergebnis dürfte über die Aussichten dieser Marschrichtung wichtigen Aufschluß geben. Großmeister-Niveau erwartet Slate allerdings nicht. Noch weniger aussichtsreich schiene der Versuch, den Suchbaum um etliche Halbzüge zu vertiefen, um so trotz rudimentärer Bewertungsfunktionen einen weiteren deutlichen Leistungsschub zu erzielen. Mindestens zehn Halbzüge müßten es insgesamt sein – daran zweifeln nicht einmal die Optimisten – bevor ein Großmeister besiegt werden könnte.

Zehn Halbzüge verlangen aber trotz optimaler Anwendung sämtlicher Programmierkniffe über 130 Millionen Stellungsbewertungen in drei Minuten, was die Leistungsfähigkeit der größten heute existierenden Rechenanlagen um ein Hundertfaches übersteigt. Ein Rechner, der diese Aufgabe bewältigen könnte, ist vorerst nicht in Sicht. Vorhandene Rechnerleistungen können zwar durch weitere Verfeinerungen am Programm effektiver ausgenützt werden – die Marschrichtung von Larry Atkin und Dave Cahlander bei CHESS 4.9 –, allerdings läßt die dadurch erzielte Geschwindigkeitssteigerung die Suchgrenze von sieben Halbzügen unberührt.

Eine Sackgasse also, die bei sieben Halbzügen unweigerlich endet? Damit haben sich jedenfalls die meisten Fachleute abgefunden. Nicht jedoch einige Schachprogrammierer, für die prinzipielle Grenzen schon immer dazu da waren, gesprengt zu werden.

Ende 1979 ging in eingeweihten Kreisen das Gerücht um, es werde in den USA an einer Maschine gearbeitet, die alles, was bis dahin auf elektronischem Wege Schach gespielt hatte, in den Schatten stellt. Keine Millionen-Entwicklungen der NASA oder eines Computer-Multis, sondern Bastelarbeit einer kleinen Gruppe von Forschern, die mikroelektronische Bauteile im Wert von einigen Tausend Dollar zusammenlöteten. Die rasante Entwicklung auf dem Gebiet der Mikroelektronik in den letzten Jahren, vor allem die allgemeine Verfügbarkeit und Verbilligung hochintegrierter Schaltelemente erlauben es diesen Computerspezialisten, eine große Anzahl solcher Elemente parallelzuschalten, sie zu einer Einheit zusammenzufassen. Durch einen geeigneten Aufbau des Systems ist es möglich, schachspezifische Aufgaben – die Erzeugung legaler Stellungen, Material- und Stellungsbewertungen, Vergleichsoperationen, etc. – noch wesentlich effizienter durchzuführen als mit einer Universalrechenanlage, die für eine große Vielfalt von Aufgabenstellungen konzipiert und gebaut wurde. Der Spezialrechner dagegen soll nur Schach spielen können. Ganz neu ist diese Unternehmung freilich nicht. Schon 1975 baute Richard Greenblatt einen Schach-Spezialrechner, der, dem Hauptrechner vorgeschaltet, eine Überprüfung von bis zu 150.000 Stellungen pro Sekunde gestattete. Dieser Rechner, CHEOPS genannt, bewertet allerdings ausschließlich Material und versorgt das Hauptprogramm MACHACK nicht selten mit Tausenden von "gleichwertigen" Zugvorschlägen, die damit unbrauchbar werden. Er wird in erster Linie dazu verwendet, MACHACK – ein Shannon-B-Programm – von allzugroßen Torheiten abzuhalten.

Nun soll aber ein Spezialrechner entstehen, der das volle Bewertungsspektrum eines modernen Brute-force-Programms einsetzt und gleichzeitig um ein vielfaches schneller ist als CHEOPS. Das unbescheidene Ziel des Projekts: 1 000.000 Bewertungen pro Sekunde! (Zum Vergleich: CHESS 4.8 schafft höchstens 5.000.) Damit wären die zehn Halbzüge, die Großmeisterstärke bringen sollen, per saltum erreicht. Daß dieses Ziel noch in diesem Jahr, rechtzeitig für die Computerschach-Weltmeisterschaft in Linz, verwirklicht werden kann, ist mehr als fraglich. Daß es noch in unserem Jahrhundert geschehen wird – was zahlreiche Veröffentlichungen entschieden verneint haben – dürfte in den nächsten Jahren als Faktum feststehen. In Linz erwarten wir zunächst eine Maschine, die rund 300.000 Bewertungen pro Sekunde schafft. Damit wäre die vollständige Überprüfung von neun Halbzügen gegeben. Was diese Entwicklung schachtheoretisch bedeutet, welche Leistungssteigerung eine solche Suchtiefe mit sich bringt, dürfte am Ende des Turniers die Diskussion um die Schachprogrammierung erneut beleben.