Der Punkt auf den ich ursprünglich hinaus wollte war der, dass du versucht hast nichtlineare Sachverhalte anhand von grobschlächtig linear skalierten Zahlenbeispielen zu erklären die keine universelle Gültigkeit haben. Der Ausgangsfall, von dem du losgelegt hattest stellt eben nur einen bestimmten Fall unter bestimmten Randbedingungen dar (und je nach Test aus dem die Zahlen stammen sogar mit großen Fehlerbalken). Die Ausgangswerte wurden von dir ohne die wichtigsten Einflussfaktoren angegeben. Der Versuch davon dann per Bierdeckel-Rechnung auf andere Fälle zu schließen, scheitert meistens und wird immer beliebiger je weiter man sich vom Ausgangsszenario entfernt.
Dass zwar die grobe tendenzielle Ursprungsaussage an der du deine Skalierung aufgehängt hat, auch für den hier besprochene Fall nicht ganz daneben liegt ist zwar richtig, aber man darf so ein Zahlenbeispiel eben nicht zum skalieren verwenden, wenn man dabei an allen Parametern herumschraubt. Das funktioniert einfach nicht - vor allem wenn es nichtlineare Phänomene wie den Wärmeübergang in Radiatoren auf der Luftseite umfasst. So wird die Unschärfe des Ergebnisses immer größer, bis jede Aussagekraft verloren geht. Meiner Erfahrung nach ist das eine Denkweise die besonders bei Leuten beliebt ist die sich viel mit Simulationen und wenig mit der experimentellen Verifikation ihrer Ergebnisse beschäftigen. Genau diesen Leuten passiert es nämlich sehr leicht, dass sie von einfachen Zusammenhängen, die sich auch in der numerischen Simulation oder teilweise sogar einfach algebraisch hervorragend abbilden lassen, ohne Weiteres (oft weil´s anders einfach viel zu aufwändig wäre) anfangen zu skalieren, ohne dabei klassische Skaleneffekte und vor allen die Randbedingungen zu beachten. Einflüsse von Vereinfachungen die banal erscheinen mögen, stellen aber in der Praxis (und auch in der Theorie) oft recht einflussreiche Faktoren dar, wie z. B. im Falle von fluiddynamsichen Betrachtungen der Übergang von einem runden auf einen eckigen Querschnitt (und dieser dann noch n-fach parallel und nicht überall mit einem ungestörten Strömungspfad). Ich habe in einer anderen Branche zur genüge erlebt, wie schnell man mit dieser Denke in den Wald kommt. Am Ende kann man sich meist mit viel Tricks und Spielereien simulativ auch aus solchen Sackgassen wieder heraus manövrieren, aber dann erreicht man auch langsam den Komplexitätsgrad der Realität, so dass im Rückblick oft der experimentelle Weg der einfachere gewesen wäre - zumindest wenn man das Modell nicht wirklich zum Skalieren unbekannter Szenarien braucht. In letzterem Fall muss man aber alles einbeziehen und die Komplexität der Realität tatsächlich bestmöglich nachstellen.
Kurzum: Skalierungen von Effekten per Bierdeckel-Rechnung mit prozentualen Ansätzen funktioniert von einfachen theoretischen Betrachtungen ausgehend nur in den seltensten Fällen und vor allem nicht über mehrere Schritte. Das kann allenfalls mit etwas Glück gut gehen - muss aber nicht. Du bist bei deiner Skalierung des Leistungsumsatzes für ein akzeptables ΔT Wasser-Luft immerhin mehr oder weniger von einen Dreisatz von zwei dir scheinbar bekannten Ausgangsergebnissen eines Tests ausgegangen (dessen Güte dahingestellt sein mag ohne ihn zu kennen). Das ist schon mal besser als eine direkte prozentuale Skalierung über die Oberflächenvergrößerung aufgrund der Tiefe, wie man sie häufig vorfindet, aber zum Einen fehlte die Angabe von welchem konkreten Beispiel du ausgehst (und somit alle Randbedingungen) und zum Anderen fängt ohne Weitere Infos schon beim nächsten abgeleiteten Schritt die Unschärfe so einer Ableitungskette an groß zu werden, so dass die Aussagekraft stark leidet. Gleiches gilt für deine Betrachtungen die du von der Rohrströmung im runden Querschnitt auf ein Feld rechteckiger Kanäle mit Strömungsumlenkungen im Zentralbereich zu skalieren versuchst - mal abgesehen davon dass dir da auch ein mathematisches Missverständnis passiert zu sein scheint, was die Bedeutung der Re-Zahl bezüglich α am l-T-Übergang angeht. Deshalb meinte ich, dass du durch selbst nachrechnen vllt. dahinter kommst

.
Ich denke wir sind uns über den grundsätzlichen Sachverhalt schon einig - nur deine Herangehensweise finde ich eben etwas blauäugig. Auf diesem Weg vertut man sich sehr leicht, wenn man zahlenmäßig argumentiert und versucht daran Beispiele aufzuhängen von denen man dann auf andere Fälle schließt. Es hat seinen Grund warum ich bei solchen Aussagen gerade in Foren die schriftliche Beschreibung der Phänomenologie bevorzuge und Zahlenbeispiele allenfalls punktuell zur Unterstützung der Argumentation einsetze (oder in Fällen wo das geht, weil rein algebraisch lösbar).
Auch Simulationen sind nur so gut wie wie ihr hinterlegtes Modell (und abhängig davon welche Einflüsse es erfasst) sowie die Definition dieser Randbedignungen, denn auch diese wollen alle richtig gesetzt sein, damit am Ende wirklich etwas Verwertbares heraus kommt (und sind sind oftmals variabel). Der Schluss vom einfachen Modell oder einem formalen Zusammenhang, dessen Gültigkeitsbereich jedoch oft beschränkt ist, zur komplexen Realität ist leider nicht immer tragfähig. Eine Simulation ist und bleibt immer einen Vereinfachung und ihre Ergebnisse müssen daher umso sorgsamer genutzt werden, je weiter die Realität von der eingesetzten Modellvorstellung entfernt ist. Ob man jedoch alles was wichtig ist beachtet hat, hängt im Wesentlichen wieder von der Erfahrung und dem Wissen dessen ab, der das Modell und/oder am Ende die Simulation aufsetzt. Zudem sollte man sich über die Regeln der Fehlerfortpflanzung bei solchen Modellvorstellungen stets bewusst sein.
Experimentelle Ergebnisse eignen sich zwar auch nicht zum zahlenmäßigen skalieren, aber sie bringen meiner Ansicht nach die Phänomenologie bestimmter Sachverhalte oft viel besser und teilweise auch anschaulicher zu Geltung, weil sie implizit alle Randbedingungen erfassen und diese auch bekannt sind, wenn sie mit aufgezeichnet bzw. protokolliert werden. Wie bei der Unschärfe von Simulationen (die von der Qualität des Modells und der angesetzten Randebdingungen abhöngen) muss hier natürlich stets die Messungenauigkeit im Blick behalten werden. Diese ist aber in der Regel für die meisten Messverfahren gut bestimmbar.
PS: Der Kühler aus meiner Signatur ist ja nicht der einzige Kühler den ich gebaut und getestet habe

. Ich maße mir auch keinesfalls an es besser zu können als die kommerziellen Anbieter. Die sind zwischenzeitlich auch wieder ein paar Optimierungsschrittchen weiter. Zumindest mein 2011er Kühler spielte aber durchaus in der damals aktuellen Oberliga.
Jedenfalls konnte ich bei der Entwicklung meiner Kühler von einfach und grob zu fein und komplexer sowie durch allerhand Optimierungen konstruktiver Art schön beobachten wie und wo sich noch starke Verbesserungen des Wärmeübergangs erzielen ließen und wo weitere sauber messbare Steigerungen nur noch schwer zu erreichen sind, ohne bei der Herstellung Probleme zu bekommen. Der Spielraum für weitere Verbesserungen ist da ausgehend von den heutigen Top-Kühlern der kommerziellen Anbieter mit Sicherheit nicht mehr groß - vor allem aber innerhalb üblicher Testfelder häufig kleiner als die Messgenauigkeit die mit der Messmethodik der meisten sog. "Kühler-Tests" erreicht wird. Über den Volumenstrom geht, wie du richtig sagst aufgrund der Pumpen, auch nichts mehr (zumindest nicht sinnvoll, da die Lautstärke ja auch wichtig ist) und außerdem ist da eben eh kaum noch Spielraum aus o. g. Gründen. Anders sähe das aus wenn man auf Drucksysteme mit Verdrängerpumpen umschwenken würde, aber das ist einfach nicht praktikabel und leise Verdrängerpumpen kann man auch mit der Lupe suchen.
Aber mal ein Vorschlag, bevor Kalle666 sich darüber beschwert, dass wir hier seinen Thread zweckentfremden:
btt! 
.
@Kalle666: Ein dünner Radi mit etwas höherer Lamellendichte (z. B. 16 fpi - davon gibt viele) würde es da natürlich genauso tun und und du sparst dir Bauraum

. Da du mit der Lüfterdrehzahl ja tendenziell eher nach unten willst, würde ich her auf die 30mm oder 45mm Klasse mit einer mittleren Lamellendichte setzen. Wichtig fände ich auf jeden Fall die Lüfter noch mal zu überdenken.
Ich nehme mal an der Radi soll intern verbaut werden - oder? Wäre denn noch Platz für einen weiteren Radiator?
Heutige GPU-Kühler sind übrigens nicht mehr so grob wie damals und arbeiten heut zu Tage auch meist bereits mit Verteilerdüsen und relativ feinen Strukturen (nicht so fein wie bei aktuellen CPU-Kühlern aber ungefähr so wie bei diesen vor fünf Jahren).
Was die Pumpe angeht, könntest du dir auch mal die relativ neue
AS-ULTIMATE ansehen, wenn sie dir nicht zu groß und zu hässlich ist. Technisch ist das mit Sicherheit das Beste was man aus der alten aber bewährten Eheim 1046 Pumpenmechanik herausholen kann. Die macht auch mehr Druck als eine D5 oder einen DDC-1T, lasst sich eigenständig auf den optimalen Arbeitspunkt regeln und bringt noch allerhand weiteren Spielkram mit, den du vllt. brauchen kannst, falls du kein Aquaero hast. Ist allerdings auch nicht ganz billig und muss (wie die D5 und DCC-1T allerdings auch) gut entkoppelt werden. Für die gibt´s auch einen
Aufsteck-AB mit Glasröhre.