Die herkömmliche digitale Computerlogik ist verglichen mit dem menschlichen Denken starr und damit beispielsweise für die Mustererkennung schlecht geeignet. Charles Peck und James Kozloski von IBMs Biometaphorical-Computing-Team am Watson Research Center haben nun ein mathematisches Modell entwickelt, mit dem sie zumindest annähernd die Datenverarbeitung des Hirns simulieren können. Ziel sind technische Geräte, die wie Menschen sehen, das Gesehene einordnen und dann auch folgerichtig handeln können.
Vor allem, wenn es um das Erkennen von Bildern geht, sind heutige Computer dumm wie blinde Würmer. Denn unsere Sehlei-
stung findet zum grössten Teil nicht in den Rezeptoren der Augen statt, sondern im Hirn. Das Hirn verarbeitet die unscharfen Rohdaten der Sehnerven in einem mehrstufigen, teils durchlässigen Verfahren. Dabei werden die Daten der Sensoren in der Grosshirnrinde von etwa 200 Millionen sogenannten Minisäulen, die untereinander verbunden sind, aggregiert.
Die IBM-Forscher haben nun die Funktionsweise von 500'000 dieser Minisäulen mit insgesamt 400 Millionen Verbindungen simuliert. Das System soll nun wie der Mensch in der Lage sein, Ähnlichkeiten zu schon gesehenen Bildern zu erkennen. So haben es Mustererkennungsproblem gelöst, das bisher durch die Computertechnik nicht analysiert werden konnte. Die US-Forscher wollen dies an der siebten internationalen Konferenz über adaptive und natürliche Computeralgorithmen in Portugal unter Beweis stellen.