[linux-l] von der Natur der Informatik

Steffen Dettmer steffen at dett.de
Mo Jun 28 23:45:06 CEST 2004


* Jan-Benedict Glaw wrote on Thu, Jun 24, 2004 at 18:16 +0200:
> Ein Modell beschreibt (in einer kompakten Weise) eine Methode,
> um zu Zahlenwerk zu gelangen, daß man so auch messen kann (oder
> hätte messen können). 

Warum muss man das so einschränken? Ein Modell ist IMHO bloss ein
Abbild einer bestimmten Sicht.

> *Gute* Modelle treten zudem dadurch in Erscheinung, daß man mit
> ihnen Voraussagen machen kann (über bisher nicht gemessene
> Größen), die sich bei einer Überprüfung bestätigen.

Eigentlich sagt das nicht mehr aus, als über (viele) bisher
gemessene Grössen Aussagen machen zu können. Die Argumentation,
"dass es unwahrscheinlich ist, dass die neu entdeckte Sache
wohl kaum zufällig vom Modell vorhergesagt wird", finde ich kaum
haltbar, da es eben doch zufällig korrekt vorhergesagt werden
kann - in jedem Fall vergewaltigt man das Modell, in dem man es
auf Bereiche anwendet, für die es nicht gemacht wurde.

> Ein Modell muß konstant daraufhin überprüft werden, ob es mit
> meßbaren Größen immernoch übereinstimmt. Somit kannst Du so ein
> Ding aufstellen, einige Male verifizieren, aber wenn einmal
> irgendetwas nicht paßt, dann kannst Du's eintüten...

Das halte ich für falsch. Mein Lieblingsbeispiel ist das
Bor'sche Atommodell. Jeder (na, fast jeder) weiss, dass es
falsch ist, aber jeder kennt es - und wendet es vielleicht in
Gedanken mal irgendwie an, wer weiss ;) Jedenfalls "tütet" man es
nicht gleich ein, weil es eben Fälle gibt, wo es einem hilft
(z.B: was zu verstehen oder zu erklären). Auch das Teilchenmodell
(ein Elektron wäre so ein fliegendes Etwas) und andere werden
benutzt, obwohl klar falsch. Oder Modellrechnungen. Man weiss,
dass man 1000 Details weglässt, aber mit Erfahrung kommt man in
eine Grössenordnung, was für einen frühen Projektzeitpunkt
hilfreich ist (auch wenn man genau weiss, die kalkulierten EUR
9674,34 werden /nie/ auf den Cent genau stimmen - es wird also
nie passen).

> Sie baut auf einer (verdammt kleinen) Anzahl von Aussagen auf, die man
> als "richtig" anerkennt; alle weiteren Aussagen sind *Beweise*, die auf
> diesen ersten, trivialen Erkenntnissen basieren.

Es sind Festlegungen (vielleicht Modelle), aus denen man sich was
baut. Das ist weder richtig noch falsch, es ist einfach. Man
nimmt es nur, weil das ganz praktisch ist. Das jede Zahl einen
Nachfolger hat, ist ja keine Erkenntnis, sondern bloss ne blöde
Idee, die man mal so festgehalten hat - weil das so sinnvoll ist
und so gut funktioniert, dass man damit Sonnenfinsternissen
vorraussagen kann.

Vielleicht gibt es bessere Axiomsysteme, vielleicht welche, in
denen Chaostheorie kein kaum greifbares Etwas, sondern was
Klares und Zwingendes, Elementares ist. Allerdings spricht für
das jetzige Axiomsystem, dass es so "elegant" ist. Ein Phsiker
würde vielleicht sagen: das ist so elegant, dass müsste
eigentlich stimmen :-)

> Ist etwas einmal bewiesen, mußt Du es nimmer in Frage stellen
> (abgesehen von all den Aufsätzen, die mit "Wenn ... wahr ist,
> dann gilt auch..." anfangen). 

Beweise sind ja eigentlich nur Abkürzungen. Man definiert
irgendwas, legt also willkürlich (aber sinnvoll) fest, und zeigt
dann Vereinfachungen. Davon lebt die Mathematik ja. Also
eigentlich alles Ableitungen aus Festlegungen: "Wenn man A so
festlegt, und B so, dann kann man das auch so schreiben". Das
hilft einem "zufällig" in der Praxis. Das kann man beliebig
komplex machen, solange es konsitent bleibt. Also beschäftigt
sich die Mathematik doch "nur" damit, Abkürzungen zu finden, die
konsistent zu willkürlichen Festlegungen sind, und damit als
"Richtig" gelten, weil man eben dann plötzlich
Sonnenfinsternissen vorhersagen kann. Dabei formalisiert man das
aber "nur", weil man das anders nicht beherrschen kann (was nicht
heisst, das es theoretisch /nur/ so ginge! Siehe Geometrie.).

> Bei den Naturwissenschaften ist's genau andersherum: Dein
> Modell mußt Du mit /jeder/ Messung, die Du machst, auf's neue
> in Frage stellen, da es eben ein Modell und kein Beweis ist.

Na, das hat man aber nur, weil der selbe Ansatz in der Physik oft
erstmal nicht sinnvoll ist. Also z.B. kann man ja beweisen, dass
ein Atom strahlt, wenn das Axiom Bor'sches Atommodell gilt.
Klingt lächerlich, aber so macht es die Mathematik ja. Hier
weicht nur "leider" die Realität ab. Jedenfalls so, wie wir sie
messen bzw. zufällig wahrnehmen. Und hier wird das Thema jetzt so
spannend, dass ich lieber aufhöre :-)

oki,

Steffen

-- 
Dieses Schreiben wurde maschinell erstellt,
es trägt daher weder Unterschrift noch Siegel.



Mehr Informationen über die Mailingliste linux-l