Um so einen Vergleich anzustellen müsstest du dem Gehirn eine "Rechenleistung" in einer Einheit zuordnen, die mit einer Größe zur Rechenleistungsbeurteilung einer CPU oder GPU vergleichbar ist. Das ist aus den von SirDiablo angerissenen Gründen nicht möglich. Du kannst auch nicht die Anzahl der Transistoren mit der Anzahl der Nervenzellen gleichsetzen - das wäre völlig aussagefrei, denn die bescheidene "Intelligenz" eines binären Rechenwerks kommt nicht aus der Anzahl der Transistoren, sondern ist ausschließlich von der Software abhängig. Und im Übrigen ist für deine Fragestellung schon allein der Ansatz DIE-Volumina zu addieren verkehrt, denn nur ein winziger Bruchteil eines DIEs enthält aktive Schaltungen. Der weit überwiegende Teil des DIE-Voumens entfällt auf "toten" Silizium-Einkristall ohne jede Funktion, außer mechanischer Stabilität und Wärmeleitung. Wenn dich die Waferdicke dennoch interessiert, auf der die Dicke des DIEs basiert, kannst du dich an den üblichen Fertigungsdicken für verschiedene
Wafergrößen orientieren - nur ist das wie gesagt reichlich irrelevant für deine Fragestellung.
Die Ansätze zur Leistungsbewertung der künstlichen Abbildung neuronaler Netze (Stichwort "deep learning") sind im Übrigen nicht mit einem biologischen neuronalen Netzwerk zu vergleichen. Das Gehirn arbeitet einfach völlig anders und hat zum größten Teil auch völlig andere Aufgaben, die sich nicht mit den Aufgaben eines Rechners vergleichen lassen. Es rechnet eigentlich gar nichts in dem Sinne wie eine CPU oder GPU rechnen und es ist für derartige Aufgaben bekanntermaßen auch extrem ungeeignet. Im Sinne solcher Rechenleistungen übersteigen bereits einzelne CPUs und GPUs sehr früher Generationen oder gar Taschenrechner die Fähigkeiten des menschlichen Gehirns bei Weitem. CPUs und GPUs versagen dagegen komplett wenn es um das geht was man denken nennt. Selbst die größten künstlichen neuronale Netze sind zu etwas was man denken nennen könnte bislang nicht mal ansatzweise in der Lage.
Zudem besteht das Gehirn aus evolutionär gesehen ganz unterschiedlichen Arealen die lange nicht alle etwas mit bewusstem Denken zu tun haben, aber sie können zum Teil mit anderen Arealen interagieren oder Rückkopplungen über den Körper erzeugen, die dann wiederum andere Gehirnareale aktivieren, die die Rückkopplungen bewusst oder unbewusst verarbeiten können.
Wie das Lernen und Denken eines Gehirns funktioniert ist aber noch lange nicht so weit verstanden, dass man es selbst mit unendlicher binärer Rechenleistung "nachbauen" könnte - es fehlt sozusagen der Bauplan bzw. eigentlich sogar die Fähigkeit diesen zu lesen, selbst wenn man ihn hätte. Ein Betriebssystem oder etwas auch nur entfernt Vergleichbares haben Gehirne in dem Sinne nicht. Sie sind was die synaptischen Verknüpfungen angeht, die das Gehirn ja erst zum Denkorgan machen - wie der gesamte Organismus - selbstorganisierend. Dem Ganzen Aufbau liegt natürlich letztlich die DNA zu Grunde, aber auch bei deren Verständnis da sind wir ja, was die ganze Komplexität angeht, noch nicht besonders weit gekommen. Um in Analogie zu Software zu sprechen, können wir zwar den gesamten Quelltext lesen und ein paar Experten sind auch in der Lage mit etwas deuten und tüfteln zu ermitteln was einzelne Subroutinen (Gene) im Gesamtorganismus bewirken, bzw. welche Proteine sie codieren, aber im Gesamtkontext schauen wir letztlich auf den DNA-Quellcode wie ein Kinobesucher auf die grünen Zeichenketten der Bildschirme in Matrix.
Auch beim Thema Speichern und Zwischenspeichern gibt es keine ansatzweise für Leistungsvergleiche mit technischen Lösungen tauglichen Ansätze, denn bei künstlichen neuronalen Netzwerken wird ganz herkömmlich binär gespeichert und zwischengespeichert, da es eben kein echtes selbstorganisierendes neuronales Netz ist, sondern nur ein virtuelles, welches über Software realisiert wird.
Hinzu kommt in Punkto Leistungsbewertung der nach außen hin erkennbaren "Leistungen" eines Gehirns noch die Tatsache, dass das Gehirn offenbar sehr viel seiner "Leistung" darauf aufwenden muss, den ständig hereinströmenden Input, den ihm der Körper zu Verfügung stellt, zu filtern. Auch das ist meines Wissens bislang allenfalls punktuell und wenn, dann auch dann nur phänomenologisch verstanden.
Obwohl das Gehirn als Gesamtheit und anhand der damit gesteuerten Funktionen komplexen Körperfunktionen gemessen, zwar sehr effizient erscheint, ist es in Punkto Energiesparmechanismen jedoch lange nicht so flexibel wie ein binäres Rechenwerk. Es lässt sich z. B. nicht wirklich in einen Energiesparmodus versetzen, der seinen Energieverbrauch drastisch senkt. Das sieht bei GPUs und CPUs ganz anders aus.