Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1998Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Kommentare sind geschlossen.
galileo wrote:
aus höchst spekulativen physikalischen Theorieentwürfen, insbesondere der String- und M-Theorie stammen
end quote.
Das ist nicht richtig. Diese entwürfe kommen kaum aus der Stringtheorie. In der Stringtheorie sind die Extradimensionen winzig klein. Abweichungen zur gewöhnlichen Physik gibt es auf Energieskalen im LHC Bereich, zumindest nach seriösen Stringtheorietikern, keine einzige.
Die Stringtheorie ist eine Quantengravitationstheorie. Das hat mit LHC Phenomenologie nichts, aber auch gar nichts zu tun.
Modelle über „Large-extra-dimensions“ oder „mini black holes“ oder Strangeletts haben mit der Stringtheorie nichts, aber auch gar nichts zu tun.
galileo wrote:
Im Rest der Welt suchst du mit der Lupe nach lupenreinen theoretischen Theoretikern, die der Dominanz der String-Theoretiker etwas entgegensetzen können
end quote.
Da hast du wohl was falsch verstanden. String-Phenomenologen must du übrigens tatsächlich suchen. Die gibt es zwar, aber das meiste, was unter Stringtheorie läuft, hat mit phenomenologie nicht sehr viel zu tun.
Es sei denn man meint eine „Phänomenologie“ auf der Planckskala. Es ist definitiv unmöglich, eine phänomenologie der Stringtheorie im Bereich von LHC Energien zu betreiben.
In diesem Bereich ist die Stringtheorie so abgerichtet, dass sie die Eichgruppen des Standardmodells reproduziert, und nichts weiter. Genauso wie man es sich ja auch von einer seriösen Quantengravitationstheorie erwarten würde.
Der Unsinn mit den „Large Extra dimensions“, den „Mini-Black Holes“ oder den „Strangelets“, der kommt von fast ausschliesslich amerikanischen Phänomenologen, die darauf angewiesen sind, kurze und einfache Arbeiten zu produzieren, weil ihnen die Zeit und die Ressourcen für ernsthaften phänomenologische Rechnungen fehlen. So wie es aussieht, sind diese Ressourcen aber schon seit Jahren auf Kontinentaleuropa beschränkt. Insbesondere sind hier die deutschen Max Planck Institute hervorzuheben, welche die im Bereich der Hochenergiephysik weltweit meist Zitierten Arbeiten produzieren, siehe etwa:
http://sciencewatch.com/inter/ins/09/09Top20Overall/
(wobei ich den link zur genaueren Aufschlüsselung, wo auch das jeweilige Fachgebiet drinnsteht, nicht mehr finde. Da kommt dann nämlich heraus, dass es die Hochenergie-phänomenologie der MPI’s ist, welche da die Zitationslisten so hoch treibt.
Und wenn man sich hier umsieht, bemerkt man, dass in Deutschland kaum jemand an „Mini Black holes“, Large Extra Dimensions, oder Strangelets arbeitet.
Das hat gründe.
Es gibt in Deutschland übrigens eine Stringtheorie.
Aber dort, wo sie betrieben wird, etwa am MPI für Gravitationsphysik, findet man auch keine „large extra dimensions“ und auch keine“Mini-Black holes“ oder „Strangelets“. Allenfalls ein paar verirrte Studenten oder einzelne Wissenschaftler, die das machen.
Aber in Europa sind es, das muss man betonen, nur Einzelne, welche diese abseitigen spekulativen phänomenologischen Modelle propagieren.
Erst einmal vielen Dank für eine
Rückkehr zu möglichst sachlichen Inhalten und zu nur
minimal persönlich bezogener Kommentierung.
(sh. Kommentar #149 | Hansi | 15. Dezember 2010, 01:11).
Ich komme zurück auf die Vorhersagbarkeit zu
den Resultaten physikalischer Experimente.
Bei der derzeit erlebbaren, deutlichen Prognoseschwäche
der professionellen Theoretischen Physik ist mittels
einer Aussage wie
„aufwändige Rechnungen, etwa zur QCD,
die mehrere Jahrzehnte brauchen können“,
nicht unbedingt ein zusätzliches Vertrauen
in die vorhandenen Sicherheitsanalysen (LSAG-Report) herbeiführbar.
Wendet man das TMC-Modell (sh. Arbeit v. T.ORD
et al.) auf o.g. Aussagen (BdW 2009/2, S. 49 ff, sh. o. a),b),c)) an, wird klar,
dass bereits schon die Verlässlichkeit mancher HEP-Kalkulation,
– wobei unbedingt die Verlässlichkeiten der Theorie
und der Modelle eine maßgebliche Rolle spielen -,
schon beachtenswerten Unsicherheiten in der Prognose bedeuten
(im beschriebenen Fall des QGP bei Bleikernkollisionen,
z.B. eine Abweichung um das 30- bis 50-Fache der Materiedichte).
Umso verständlicher wird, dass Giddings und Mangano,
wegen der vorhandenen theoretischen Unvollkommenheiten,
auf astronomische Sachverhalte ausweichen mussten,
um eine Sicherheit nachweisen zu können – leider
hat sich herausgestellt, dass von ihnen wesentlichen,
Indizien gleichkommenden, unzweifelhaften astronomischen
Beobachtungssachverhalten k e i n e Aufmerksamkeit gewidmet wurde
(z.B. ungeklärte Energiehaushalte bei einigen Exoplaneten).
Wenn ein Eindruck erweckt würde, dass der speziellen Kalkulation,
der praktischen Umsetzung mit Computerprogrammen zu den QGP-Prognosen,
nicht das Standardmodell und nicht die QCD zugrunde gelegen hat,
halte ich dies für irreführend – ich gehe davon aus, wie
der Kommentator im Beitrag #78 vermerkte, dass sehr wohl die QCD,
das Standardmodell, den professionellen Berechnungen zu den
QGP-Zuständen (sh. BdW 2009/2, S.49 ff) zugrunde gelegen hat,
obschon leider grob von der Realität abweichende
Resultate produziert wurden. Die Schwierigkeiten (Dauer
mancher Berechnungen bzgl. QCD über möglicherweise Jahrzehnte)
der Prognose wurde bestätigt, die ja bereits in anderer Weise schon für die Theorie der
Hydrodynamik gilt (in diesem Zusammenhang mag auch ein sog.
„Blow-up-Phänomen“ von Bedeutung sein).
Zu meinem persönlichen Herkunftsort, bitte, eine einfache
Antwort: Die Antwort hierzu bedarf nicht der Verschleierung
durch eine Nicknamensidentität.
Lieber ‚Hansi‘ – Sie haben aus
meinen Ausführungen folgendes gemacht:
„Zunächst ist es etwas skurril,
dass Herr Übbing behauptete,
es gäbe keine Datenbanken
in denen sämtliche Theorien gelistet sind.“
Möglicherweise haben Sie unvollständig nachgelesen.
Lesen Sie bitte dazu noch nach:
„Verfasst am: 11.11.2010, 11:16
Titel: Re: Anfrage zu einigen Quellen – hier Physikerzitate
rudolfuebbingdo hat Folgendes geschrieben:
Zitat:
„Derzeit gibt es in der Physik einen enormen Überhang
von Theorien und Modellen gegenüber dem Experiment.
Genau deshalb warten ja auch von alle in diesem
Bereich forschenden Wissernschaftler so begierig
auf die Ergebnisse dieses Experiments.“
Aus meiner Sicht wäre es genau wegen des enormen Überhanges
von Theorien dringend notwendig, methodisch die Vielzahl von Theorien
auf ein ganz neues Fundament wissenschaftlichen Vorgehens
– vor der Durchführung gewisser Experimenten – zu stellen,
auch und gerade unter Hinzunahme von automatisierten Verfahren,
die es freilich gilt, noch zu entwickeln. Ein erster Schritt wäre
eine standardisierte Datenbank aller konkurrienden, speziellen Theorien
und Theorien; sicherlich gibt es dazu schon Aktivitäten und erste
Realisierungen; dies und mehr wäre aber vordringlich, wie ich meine.“
Zu den persönlichen Diskreditierungen (Kommentare vor #148):
Hier empfehle ich einmal in das eigene Spiegelbild zu schauen,
d.h. zu überlegen, ob die in einigen Beiträgen
formulierten persönlichen gemeinten Abwertungen
doch eventuell zur produktiven Selbstreflexion
verwertbar sind; dies scheint hart formuliert, muss jedoch
aus bestimmten Gründen einmal derart ausgesprochen werden.
Fehlinterpretationen sind auf AC von mir oft beanstandet worden,
die jüngste, oben hinzugekommene davon ist die,
die ich hier ebenfalls ausdrücklich beanstande,
dass der Eindruck erzeugt wurde, ich hätte mich mit Einzelheiten
der o.g. Neocosmology auseinander gesetzt.
Meine Zeit ist sinnvoller eingesetzt, für mich aufzuklären,
ob mittlerweile alle vorhandenen, beobachteten Messergebnisse
z.B. mindestens von einer einzigen Theorie
im Rahmen der Messgenauigkeit dargestellt werden;
ich gehe jedoch davon aus, dass die genaue Reproduktion
etlicher Messergebnisse der HEP vielmehr derzeit noch
in erheblichen Ausmaß o f f e n ist.
Das LHC-Experiment dient – so wie es sich damit präsentiert –
n i c h t gezielt ausschließlich
der Bestätigung von Theorien und Modellen
(weil niemand sich die erfolgreiche Mühe gemacht hat,
die Theorien und Modelle vorweg zu komplettieren –
das soll bitte kein Vorwurf sein, sondern der Wunsch nach einer
forcierten Digitaliserung der Theoretischen Physik),
sondern bewusst in erster Linie dazu,
mit n e u zu beobachtenden, erwarteten, derzeit noch unbekannten
Phänomen Gedankenanstöße etc. zu gewinnen, die d a n a c h
erst der weiteren Theorieentwicklung dienen,
d.h. mithin werden e r h e b l i c h e Überraschungsmomente
gezielt in Kauf genommen.
Zu sagen, wir stehen vor einem Rätsel, wir können nur noch
experimentieren, reicht im vorliegenden Fall n i c h t aus, wie ich meine.
Ist ein solches, provisorisch anmutendes Vorgehen in Ordnung,
wenn u n b e k a n n t e Urzeitkräfte im Spiel sind,
welche durchaus prinzipiell ausser Kontrolle geraten könnten,
z.B. weil natürliche Bedingungen nicht im zweifelsfreien
ausreichenden Ausmaß im Experimentgeschehen reproduziert sind ?
Die Geschichte der Atomphysik zeigt, dass im
Bereich der Nuklearforschung mehrere derartige
entlastende Gutachten erforderlich waren, von
1945 an Konopinsky et al., von G. Breit in
den 50er-Jahren, und noch bis spät in den
70er-Jahren gab es ein weiteres Gutachten (wenn
gewünscht wird, liefere ich auch Quellen; ich denke aber,
diese sind aber mittlerweilen bekannt.)
Nun, mit dem RHIC-Beschleuniger vor etwa einem Jahrzehnt
musste in der Subnuklearforschung die
Sicherheitsdiskussion neu belebt werden,
was zuletzt vor über zwei Jahren zu einem
LSAG-Report geführt hat. –
Aus Sicht mancher, konkreter astronomischer Beobachtungen
besteht auf Basis sehr einfach nachzuvollziehender Überlegungen
weiterer, aktueller Klärungsbedarf.
Ein Risiko oder ein Restrisiko kann zum jetzigen Zeitpunkt
wissenschaftlich n i c h t als nullwertig präsentiert werden
(Wo ist z.B. die öffentliche Antwort auf das Dokument
arXiv:0808.1415v3.pdf v. 9.8.2009 ?).
Aus astronomischer Sicht konnte in 2005 ein als jährlich
beschriebenes Risiko für die neue Collider-Technologie
nicht als nullwertig nachgewiesen werden – leider geht
der LSAG-Report hierauf widerlegenderweise im Detail nicht ein.
Zudem wird die Diskussion und die Festlegung eines Grenzrisikos
vermieden, während in einem nicht ganz unähnlichen Fall
ein sogar ein beziffertes Grenzrisiko von einem Nobelpreisträger (A.H. COMPTON,
THE AMERICAN WEEKLY, 1959 March 8 ) als akzeptabel dargestellt wurde –
menschlich aus einer damals leider vorhandenen Notsituation
heraus verständlich.
Realität und Diskussionsinhalte klaffen manchmal auseinander.
Übbing wrote:
Bei der derzeit erlebbaren, deutlichen Prognoseschwäche
der professionellen Theoretischen Physik ist mittels
einer Aussage wie
“aufwändige Rechnungen, etwa zur QCD,
die mehrere Jahrzehnte brauchen können”,
nicht unbedingt ein zusätzliches Vertrauen
in die vorhandenen Sicherheitsanalysen (LSAG-Report) herbeiführbar
end quote.
Es gibt , bezüglich sicherheitsrelevanter Aspekte keine Prognoseschwäche. Und diese Rechnungen brauchen auch nicht jahrzehnte, weil man nur spezielle, extreme Ergebnisse, die makroskopische Konsequenzen haben, prüfen muss. Und da schliesst die Confinement Eigenschaft der QCD definitiv jede Gefährdungsmöglichkeit aus.
Und das ist das einzige was relevant ist
Übbing wrote:
Wenn ein Eindruck erweckt würde, dass der speziellen Kalkulation, der praktischen Umsetzung mit Computerprogrammen zu den QGP-Prognosen,
nicht das Standardmodell und nicht die QCD zugrunde gelegen hat, halte ich dies für irreführend.
end quote
Es ist aber korrekt.
Denn es gibt prinzipiell keinen Computer, der kollektive Phänomene der QCD fpr ein Quark Gluonen Plasma ab-initio berechnen kann.
Und das wird es auch in Zukunft nicht geben. Es ist einfach zu rechenintensiv.
Beim Quark Gluon Plasma muss man insbesondere nichtperturbativ Rechnen. Dies erzwingt dann, die Lattice QCD Methoden zu verwenden, oder ein noch primitiveres Color String Modell.
Im Übrigen steht das Problem mit der fehlenden Präzision dieser Computermodelle sogar schon in wikipedia:
http://en.wikipedia.org/wiki/Quantum_chromodynamics#Lattice_QCD
Zitat:
it is a slow and resource-intensive approach. However, the numerical sign problem makes it difficult to use lattice methods to study QCD at high density and low temperature (e.g. nuclear matter or the interior of neutron stars).
end quote
Bevor sie, Herr Übbing einem Kommentator dreist unterstellen, dass er lügt, sollte sie sich, Herr Übbing, gefälligst selbst über Grundlagen informieren.
übbing wrote:
ich gehe jedoch davon aus, dass die genaue Reproduktion
etlicher Messergebnisse der HEP vielmehr derzeit noch
in erheblichen Ausmaß o f f e n ist.
end quote.
Das sie keine Ahnung von Hochenergiephysik haben, das zeigen sie damit. Mehr nicht.
Denn tatsächlich ist es ja genau das Problem der Beschläunigerphysik, das wirklich sämtliche Messergebnisse die man an Teilchenbeschläunigern bisher erhielt, mit einer in den 70’er Jahren aufgestellten Theorie befriedigend erklärt werden können.
Theoretiker beschäftigen sich nur deswegen mit abseitigen Hypothesen wie Extradimensionen, weil es eben keine Messergebnisse gibt, die noch nicht von bestehenden Theorien reproduziert werden..
übbing wrote:
Ein Risiko oder ein Restrisiko kann zum jetzigen Zeitpunkt
wissenschaftlich n i c h t als nullwertig präsentiert werden
end quote.
Das Gegenteil wurde hier mehrfach dargelegt. Sie verbreiten dennoch weiter ihre Propaganda.
Ist es richtig, dass „Lattice-QCD“ ein Näherungsverfahren
zu der QCD darstellt oder eine abgeleitete, praktikable Vereinfachung
der QCD darstellt ?
Ich erinnere dazu an den Inhalt des
Kommentarbeitrages #78 | Quentin | 9. Dezember 2010, 16:12
(sh. auch #79).
Gehe ich mithin recht in der Annahme,
dass die Prognosedaten (gem. BdW 2009/2, S. 49), die ich unter
a), b) und c) zusammengefasst hatte,
auf Lattice-QCD fußen,
dass seinerseits Lattice-QCD auf QCD fußt
und somit die Basis dieser Prognosewerte
die QCD darstellt, wenn auch in vereinfachter Form ?
Halten wir fest, dass die derzeitige Darstellung der
vorhandenen Beobachtungsergebnisse durch die Theorie „befriedigend“ ist –
befriedigend ist nicht gut. Man kann also sehr wohl
noch an theoretischen Grundlagen arbeiten, um eine
wirklich gute Übereinstimmung zwischen Prognose
und Messwerte/Beobachtung zu erzielen.
Als ziemlich aktuelle, nicht prognostizierte Beobachtungssachverhalte
können im Kollisionsgeschehen des LHC bestimmte Überschußanteile
spezieller Teilchen angesehen werden oder eine nicht typische, noch
nicht erklärte richtungsmäßige Verteilung der aus der Kollision entspringenden Teilchen –
mit einer verbesserten theoretischer Grundlage ist u.U. diese Art von
Überraschung mit einer höheren Wahrscheinlichkeit vermeidbar.
Der Wunsch ist, dass es nur positiv wirkende Überraschungsmomente
geben möge.
übbing wrote:
Man kann also sehr wohl
noch an theoretischen Grundlagen arbeiten, um eine
wirklich gute Übereinstimmung zwischen Prognose
und Messwerte/Beobachtung zu erzielen.
end quote.
Bei Näherungen, wie der Lattice QCD geht das eben nicht. Sie haben da ein Computerprogramm, und die Ergebnisse dieses Programms hängen von diversen Parametern ab. Die Parameter kommen aus dem Experiment. Man kann ohne das experiment nur Raten. Und dann liegt man natürlich oft falsch. Man muss also die Parameter nachmessen.
Übbing wrote:
Der Wunsch ist, dass es nur positiv wirkende Überraschungsmomente
geben möge.
end quote
Nein, das weiss man sicher.
Denn die notwendigen Rahmendaten, aus denen die ungefährlichkeit aller Prozesse der QCD zwingend folgt, kann man schon exakt berechnen.
Das man nicht für jede experimentellen Situation alle Messdaten mit einem Computer aus der QCD vorhersagen kann, sondern wegen der Schwierigkeit der Rechnungen näherungsmodelle eingesetzt werden müssen, bedeutet nicht, dass die QCD komplett unvorhersagbar ist.
Insbesondere folgt aus den Gleichungen der Quantenchromodynamik die Eigenschaft der asymptotischen Freiheit. Aus dieser Eigenschaft folgt, dass alle durch die QCD gesteuerten Reaktionen kontrollierbar und auf einen geringen Raumbereich beschränkt sein müssen.
Daher weiss man auch theoretisch, dass die Kollisionen am LHC welche ein Quark Gluonen Plasma erzeugen, harmlos sind.
Das heisst aber nicht, dass man für jede experimentelle Situation jeden Messwert mit unendlicher Genauigkeit am Computer simulieren könnte. Man will genauere Daten für die Näherungsmodelle. Deswegen macht man das QGP Experiment am Cern.
Da die QCD wegen ihrer asymptotischen Freiheit nicht gefährlich sein kann, ist das ja auch kein Problem.
Uebbing, wieso beantworten Sie meine letzte Frage an Sie nicht? Sie sprachen von einer „Theorieverlässlichkeit“.
Wie wollen Sie denn prüfen?
Zu der Beantwortung möchte ich zuerst auf das TMC-Modell bei T.Ord, R. Hillerbrand und A. Sandberg schauen; ich sehe in der Arbeit dort Ansätze, wie zunächst auf pauschale Weise, aber dann möglicherweise in weiteren Entwicklungsstufe auch spezielle Theorien, was ihre Verlässlichkeitsgrade betrifft, beurteilt werden können.
Hier sind offenbar grundsätzlich neue wissenschaftstheoretische Definitionen auf den Weg zu bringen. – Dies ist zudem eine weitergehende Frage an Wissenschaftstheoretiker, Statistiker, Informatiker, Mathematiker und andere Spezialisten, hier z.B. Maßzahlen für Verlässlichkeitsgrade zu definieren. Eine der Einflußgrößen wäre sicherlich die Abweichung zwischen beobachteten und theoretisch prognostizierten Messwert; über Systematisierungsmöglichkeiten müsste intensiv nachgedacht werden – wie ich meine, muss es bereits anderweitig Ansätze dazu geben, die ich jedoch nicht kenne. – Eine Theorienormung,
eine zu entwickelnde Standardisierung, wäre sicherlich dabei ein Zwischenergebnis.
Denke ich diese Aufgabe weiter in die Zukunft, so mag in einigen Jahren ein Projekt, etwa sinngemäß betitelt “Digitalisierung der Theoretischen Physik”, ernsthaft angegangen werden können.
Man wird dann sicherlich später über Resultate staunen, welchen Stellenwert dann die eine oder andere Theorie erhält, z.B. im Sinne einer Zutreffenswahrscheinlichkeit, Aussagekraft etc., sobald es gelungen ist, hierfür begründbare Maßzahlen zu entwickeln, zu definieren und auszuwerten. –
(Im Bereich der Wirtschaftswissenschaft und der Statistik ist man derzeit in NRW dabei, ein Projekt durchzuführen, dass neuartige Aussagequalitäten und Erkenntnisse im Vorfeld bedenklicher wirtschaftlicher Entwicklungen generieren soll, damit rechtzeitig Warnungen ausgesprochen werden können und im Falle von krisenartigen Entwicklungen gegengesteuert werden kann – hier kann ich mir vorstellen, dass man sich grundsätzliche ähnliche Gedanken machen muss.)
Herr Kannenberg teilte mit, dass er das TMC-Modell wohl für falsch hält, wie vor über einem Jahr in einigen Details beschrieben hat – nun, in der ersten Jahreshälfte 2010 scheint die o.g. Arbeit von T.ORD et al. in einem Fachjournal (Fundstelle gab ich oben an) gedruckt erschienen zu sein, ohne dass die Einwände
eines konstruktiv-kritisch denkenden Mathematikers von den Autoren berücksichtigt wurden – so bitte meine Sicht; ich beschäftige mich derzeit noch mit der Gegenargumentation und
möchte davon ausgehen, dass das konkrete, von T.Ord et al. beschriebene TMC-Modell durchaus verbessert werden kann.
zu #157 15. Dezember 2010, 18:11:
Vielen Dank für die Ausführungen, hier nur als Zwischenantwort – ich versuche bis Freitag zu antworten.
Uebbing, Sie wiederholen nur den längst abgehakten Bullshit und legen ein erstaunliches Maß an Unwissenheit bezüglich der naturwissenschaftlichen Methodik insgesamt an den Tag.
Deshalb jetzt mal eine andere Frage: Sind Sie wirklich nur doof oder wollen Sie uns hier verarschen?
Ahja, und auf eine Antwort auf meine Frage warte ich immer noch, Herr Uebbing!
Ein paar Gedanken zum
Verlässlichkeitsgrad einer Theorie – diskutiert an einem
simplifizierten Beispiel:
Nehmen wir etwas sehr einfaches zur Verdeutlichung –
man stelle sich vor, eine Theorie schlussfolgert
aus zwei Aussagen A und B,
wenn der Fall ihrer gleichzeitigen Gültigkeit eintritt,
eine Konsequenz, sagen
wir die Aussage C. Das sei bereits der vollständige Inhalt
dieser angedachten Theorie. Sie sei auch schon oft
getestet, so dass sie als glaubwürdig erscheint.
Jetzt werde diese Theorie einmal untersucht mittels einer
gründlichen Metaanalyse auf ihren Verlässlichkeitsgrad,
dadurch, dass man nämlich sämtliche zugehörigen Details
bis hinein in die kleinsten Verzweigungen prüft.
Dabei stellt sich heraus, die Aussagen A und B sind
selbst nicht ideal perfekt, sondern haben jeweils
eine Wahrscheinlichkeit A1 und B1 (Werte zwischen Null und Eins –
damit es spannend wird, sagen wir mal knapp unter 1).
Nach außen sehen die Sachverhalte A und B so aus
als seien sie wirklich A und B,
aber ein verdecktes, entscheidendes Merkmal tritt
in seltenen Fällen hinzu.
Dann besitzt im Falle der Abhängigkeit
von A und B die Aussage C tatsächlich die Wahrscheinlichkeit
C1=A1 * B1.
Demnach existieren Anwendungsfälle, wo der
Theoretiker, der die Theorie anwendet,
auf seiner gerade aktuellen Erkenntnisstufe
nur v e r m e i n t A wäre richtig und B wäre zugleich
auch richtig – in diesem Falle vermeint er, auch C
(= Prognosewert der Theorie) wäre richtig.
Die Theorie hat also den Flüchtigkeitsfehler,
A und B, wenn es nur den Anschein hat, immer
als richtig anzunehmen.
Das heisst in 100 Fällen der Anwendung
dieser Theorie wird sie 100 * C1 mal zutreffen,
bzw. ihr Verlässlichkeitsgrad beträgt dann tatsächlich
nur 100 * C1 Prozent.
(Hier versuche ich also den Verlässlichkeitsgrad
einer Theorie anhand
der Zahl der zutreffenden Fälle verglichen mit der
Zahl der Theorie-Anwendungsfälle zu definieren.)
Gemäß der Quantenphysik z.B. hält sich ein Teilchen
in einem Längenintervall einer der drei Raumdimensionen nur mit
einer begrenzten Wahrscheinlichkeit auf – wählt man
das Intervall groß und größer, nähert man sich
dem Wahrscheinlichkeitswert 1 ohne ihn exakt zu erreichen.
Mit anderen Worten, eine physikalische Aussage, in
der bereits nur ein Teilchen mit Gegenstand der Aussage ist,
kann nicht einfach einen perfekten Zuverlässigkeitsgrad
besitzen,
Diesen Gedanken hier zu einer Theorie über Theorien weiter
auszubauen, haben Wissenschaftstheoretiker sicherlich schon lange
aufgegriffen, dazu ist er einfach zu simpel. Ich sehe bei
T.Ord et al. interessante, in etwa dem entsprechende Ansätze; man wird
schon bereits sehr gute, andere ausgefeilte Facharbeiten auf diesem
Gebiet aufspüren können, denke ich.
Im Zeitalter der automatisierten
Datenverarbeitung wird die Theoretische Physik sicherlich
irgendwann auch einmal für die Generierung ihrer Theorien von einer Maschinenunterstützung Gebrauch machen
wollen – warum will man nicht jetzt schon damit konkret anfangen ?
Nötiger als ein Teilchenbeschleuniger mit Urzeitkräften,
welche hier in zwei Aspekten des LHC-Experimentes
n i c h t der natürlichen Situation entsprechen,
ist ein I d e e n b e s c h l e u n i g e r,
mit dem es gelingt, die Theorievielfalt in der Theoretischen
Physik einmal radikal zu durchforsten – d.h. eine Objektivierung, z.B.
methodisch neu die Aussagekraft von Theorien zu quantifizieren, durchzuführen.
Aus meiner Sicht hat die Physik die grundsätzlich neuen Möglichkeiten der Digitalisierung noch nicht für ihre kreativen Prozesse, der Theoriegewinnung,
eigentlich für sich selbst also, zur Anwendung gebracht.
Gerade die Physik würde sich für eine
Forcierung der sog. Künstlichen Intelligenz eignen, wie ich meine.
Die enorme Menge der dazu notwendigen Formalisierungsprozesse schreckt
freilich ab. Dazu gehört sicherlich auch, logisch-elementare physikalische
Aussageformen zu entdecken und zu definieren, die nicht weiter
untergliedert werden können.
Schlussfolgerung: Wir brauchen nicht nur eine Neue Physik dank
Teilchenbeschleuniger, wir brauchen vorab eine m e t h o d i s c h
revolutionierte Neue Physik, sh. die zurecht beklagte Theorievielfalt / Theoriewust.
These: Es gibt keinen menschlichen neuen EINSTEIN mehr oder eine
Forschergruppe, die insgesamt die Theoretische Physik überblickt.
Uebbing, was Sie hier offenbaren ist ein eklatanter Wissensmangel bezüglich der Methoden der Physik, der Naturwissenschaft allgemein. Sie meinen tatsächlich, so etwas wie Statistik etc wäre in der Wissenschaft noch nicht angekommen. Ganz zu schweigen davon, daß sie offenbar nicht den Hauch eines Verständnisses der Physik als experimentelle Wissenschaft besitzen. Sie bemerken nicht einmal, daß noch ausgedehnteres Theoretisieren als es bisher schon passiert ein Experiment wie den LHC eher noch notwendiger macht. Eine Prüfung jeder Theorie, egal wie entstanden, ob am Schreibtisch oder im Supercomputer, braucht letztlich das Experiment. Und keine ihrer dämlichen Amtsstuben-Phantasien einer ‚Theorienormung‘ etc ist in der Lage, ein Experiment wie den LHC zu ersetzen. Oder ‚Überraschungen‘ auszuschließen. So ganz nebenbei kann man mit Hilfe Ihrer ‚Argumentation‘ die menschliche Gesellschaft und Wissenschaft in ihrer jetzigen Form gleich ganz abschaffen. Hätte die Menschheit immer nach der Uebbing Methode rein threotisch versucht, Naturgesetze usw zu erforschen, säßen wir heute noch in einer Höhle und hätten vermutlich nicht einmal das Rad erfunden. Und freies Denken wäre vermutlich auch von Übel.
Nun denn, die Realität sieht so aus, daß wir 30 Jahre ‚Ideenbeschleunigung‘ hatten. Es ist jetzt Zeit, das Experiment reden zu lassen. Ihre Einwände sind komplett widerlegt und teilweise einfach nur von akutem Mangel an logischen Denken, mithin an Vernunft gekennzeichnet.
Erfolge der automatisierten Datenverarbeitung – erweiterbar:
Als grundsätzlicher Technik- und Wissenschaftsfreund halte ich hier einmal einige Erfolge der automatisierten Datenverarbeitung parat, von welcher ich mir wünschte,
Physiker würden sie auch beim kreativen Prozess der Theoriegewinnung
forciert einsetzen. Diese Erfolge geben Anlass für einen Optimismus,
dass in Zukunft die Theoretische Physik noch in einen weiteren, sensiblen
Gebieten sich der Digitalisierung bedienen wird wollen.
Beispiele (sicherlich nur ein winziger Ausschnitt):
a) Die programmtechnische funktionale Abbildung der Hörprozesse, z.B. bei
der Spracherkennung.
b) Die automatisierte visuelle Bearbeitung der Daten aus virtuellen
Räumen
c) Die praktische Umsetzung dieser automatisierten Wahrnehmungsfähigkeiten
beim Bau selbständig fahrender Automobile, die derzeit in Entwicklung
sind und erprobt werden.
d) Die enormen mathematisch orientierten Simulationsprozesse zur
Abbildung der physikalischen Realität in den Physikinstituten oder anderen Forschungseinrichtungen
Dies und mehr lässt durchaus hoffen, dass auch bei den schöpferischen
Erkenntnisprozessen, wie bei der Theoriegewinnung, demnächst erste
Schritte getätigt werden. Eine vermehrte Zusammenarbeit zwischen Physik und
Informatik und anderen Disziplinen wäre hier wünschenswert.
Also wirklich, Herr Uebbing, nachdem was Sie hier geäußert haben sind Sie weder ein Wissenschaftsfreund noch ein Wissenschaftskenner.
Ihre Beiträge lassen ein tiefsitzendes Wissensdefizit bezüglich der Arbeitsweise der modernen Wissenschaft erkennen. Ihre letzten Texte sind noch mehr als die vorherigen eine einzige Ansammlung von leeren Phrasen, die auch wirklich nur in Ihren Ohren irgendwie intelligent klingen dürften. Diese merkwürdigen Vorstellungen, man könne die Natur auch ganz ohne Experiment durch besonders tiefes Nachdenken verstehen oder theoretisch beschreiben, sind realitätsfern, schaffen im Endeffekt jede Form von Naturwissenschaft ab und führen direkt zurück in die Steinzeit. Grundlegende Fragen der Wissenschaft, aber auch Lösungen für drängende (Umwelt-)Probleme können auf diese Weise nicht bearbeitet bzw gefunden werden, da Sie konsequenterweise Ihre ‚Argumentation‘ nicht auf Teilchenphysik beschränken können. Die Ihnen vorschwebende, durch alleiniges Denken gewonnene ‚Supertheorie‘ gibt es in keiner Disziplin, und deshalb lauern überall potentielle Weltuntergänge.
Uebbing, Sie können alle Rechner der Welt hunderte Jahre an irgendeinem Modell rechnen lassen und werden am Ende immer noch auf Experimente wie LHC angewiesen sein. Und auch dann wird es immer noch Überraschungen geben. Ihre ganzen Einlassungen sind damit vollends gegenstandslos. Da Ihnen das jetzt mehrfach erklärt wurde, wiederhole ich meine Frage an Sie: Sind Sie einfach nur zu doof, die Schwächen Ihres ‚Arguments‘ zu erkennen oder wollen Sie uns hier bewusst verarschen und einfach nur Ihre Propaganda posten?
Die zuletzt gestellte Frage – unpassend im Ton – hatte ich
schon einmal an anderer Stelle auf AC unter Wahrung der üblichen
Höflichkeit beantwortet.
Zu „Und auch dann wird es immer noch Überraschungen geben.“ :
Dieser Satz steht in keinerlei Widerspruch zu meinen Ausführungen
(ich hatte davon gesprochen, das Moment der möglichen Überraschungen
zu „minimieren“ – vielleicht bitte nochmal nachlesen.).
Bitte, keine künstlichen Widersprüche oder Meinungsverschiedenheiten aufbauen, sondern graduelle Unterschiede möglichst quantifizieren, wäre meine Antwort.
Was ist so schlimm an Überraschungen, daß Sie ‚minimiert‘ werden müssen? Und wenn man sie sowieso nicht vermeiden kann, was soll Ihr ganzer oben ausgebreiteter Blödsinn dann überhaupt?
Alleine aufgrund letzter Fragestellung ist meine zugestpitzte Frage an Sie rational begründet.
Zum Thema TMC-Modell nach T.Ord et al. – Berichtigung:
Das TMC-Modell von T.Ord et al.
ist nach Einschätzung eines Diplom-Mathematikers
nicht „wohl falsch“, wie ich es von ihm fälschlich interpretiert
habe, sondern „unbrauchbar“.
Dazu darf ich unten folgenden Absatz aus der
der o.g. Einschätzung zitieren.
Ich bitte darum, meine Über- oder Falschinterpretation zu
entschuldigen.
(Meiner Sicht nach ist die Brauchbarkeit des TMC-Modelles
auch bestimmt von der künftigen Automatisierbarkeit
dieser analytischen Prozesse; gerade Physik als logikgeprägter
Analysevorgang sollte für die Zwecke einer Automatisierbarkeit,
im Gegensatz z.B. zu Philosophie, von vornherein besonders
geeignet sein – ich erlaube mir daher Optimismus.)
Zitat – Herr Kannenberg begründete fazitmäßig unter anderem:
„Eine Nachfolgearbeit könnte zwar versuchen, das TMC-Modell auf den
zweiten Summanden anzuwenden, d.h. die entsprechenden Wahrscheinlichkeiten
umzurechnen, doch liefert das aufgrund der Mathematik sehr komplizierte und
unanschauliche Ausdrücke, die man leider nicht abschätzen kann. Hier bräuchte man also
ein Modell, welches die beiden Terme des unerwarteten Risikos B1 und B2 besser
abzuschätzen vermag. TMC leider kann das nicht.“
Zu #167 16. Dezember 2010, 14:08:
Da Risiken prinzipiell nicht restlos zu vermeiden sind,
bleibt nur übrig, sie sinnvoll unter Beachtung eines
zu unterschreitenden Grenzrisikos zu m i n i m i e r e n.
Eine Maßnahme dazu ist, Theorien derzeit und stets
im Falle der HEP-Experimente so weit
weiterzuentwickeln, dass sie bei kritischen Versuchen
stets den letzten Stand der Beobachtungssachverhalte
im Rahmen der Messgenauigkeit wiedergeben können.
Frage:
Sind die letzten beiden von mir beschriebenen
Auffälligkeiten der aktuellen LHC-Beobachtungsresultate,
die nicht so recht zur physikalischen Prognose
passend gewesen sind, mittlerweile durch
die fortentwickelte Theorie im Rahmen der Messgenauigkeit
darstellbar gemacht worden ?
(Oder nimmt man die nächstmögliche Überraschung
einfach nach weiterer energetischer Kollisionserhöhung – dermaßen
unvorbereitet, mithin ohne Theorieverbesserung – in Kauf ?)
Mein Vorschlag zur Risikominimierung ist nur einer von einigen – ein anderer,
sicherlich besserer Vorschlag, rührt von einem Astrophysiker.
Wie wollen Sie etwas minimieren, das Sie gar nicht kennen? ‚Überraschungen‘ minimieren widerspricht schon rein formal der Definition der ‚Überraschung‘. Eine ‚Überraschung‘ ist doch deshalb ‚überraschend‘, weil sie so nicht erwartet wurde. Ob eine Theorie ausreichend ‚verbessert‘ wurde, wissen Sie erst nach dem Experiment. Und da kann es ‚Überraschungen‘ geben. Immer. Überall. In jeder Disziplin, nicht nur der Teilchenphysik.
Sehen Sie eigentlich nicht, was Sie für einen Blödsinn zusammenschustern? Jede Theorie kann sich jederzeit in einem neuen Experiment als unzureichend herausstellen.
So langsam beantwortet sich meine Frage übrigens von selbst.
Ich darf einfach dagegen halten – ohne unbedingt Positivist sein
zu wollen – dass jedes Tun, welches m e h r Klarheit zu
einer gegebenen, bereits festgestellten Situation verschafft,
das Maß an Schutz – auch vor unangenehmen
Überraschungen – erhöhen kann oder wird.
Man betrachte den Vorschlag zu einer
ständig aktuellen Theoriefortschreibung sinngemäß als eine
Vorstufe von „Gefahr erkannt – Gefahr gebannt“.
übbing wrote:
Sind die letzten beiden von mir beschriebenen
Auffälligkeiten der aktuellen LHC-Beobachtungsresultate,
die nicht so recht zur physikalischen Prognose
passend gewesen sind, mittlerweile durch
die fortentwickelte Theorie im Rahmen der Messgenauigkeit
darstellbar gemacht worden ?
end quote.
Das dauert immer rund 1-2 oder mehr Jahre.
Immerhin muss eine neue Programmversion des Simulationsprogramms geschrieben werden.
Microsoft Windows oder Office kommt auch nicht jede Woche neu raus.
Das ändert aber nichts daran, dass die QCD absolut sicher ist.
@ ‚Benni/Hansi‘
Warum denn sollten überhaupt noch Experimente durchgeführt werden, wenn sogar dazu Gewissheit bestünde, dass die QCD absolut sicher sei?
Ich möchte meine an Sie (als ‚Hansi‘) bereits am 3. Dezember gerichtete Frage hier wiederholen, weil diese in der ganzen Aufgeregtheit in Vergessenheit geraten ist:
( http://www.achtphasen.net/index.php/2010/08/24/foucault_sche_pendelbewegung#c5102 )
ich freue mich auf ‚Hansi/Bennii’s Antwort!
Das Problem ist, daß Ihre ‚Vorschläge‘ nicht mehr Klarheit bringen können. Prinzipiell nicht. Ohne Experiment können Sie keine Theorie bewerten. Und Sie erhalten auch keine verlässlicheren Aussagen über die Natur, wenn Sie den Aufwand in der theoretischen Forschung bis ins Unendliche aufblasen.
Ich stelle mir mittlerweile nur noch die Frage, wieso diese doch eigentlich sehr einfache Erkenntnis nicht in Ihren Kopf geht. Kleben Sie etwa so sehr an Ihrem vermeintlich letzten Strohhalm, daß jede Form logischen Denkens vollends abgeschaltet wurde?
Dumm wie von Ihnen gewohnt, achtphasen. Vor lauter rösslerund selbstinduzierter Denkunfähigkeit bemerken Sie schon nicht mehr, daß es nicht das primäre Ziel von Forschung ist, die Sicherheit von diesem oder jenem nachzuweisen, sondern mehr über bestimmte Zusammenhänge an sich herauszufinden. ‚Was die Welt zusammenhält‘ zu erforschen.
achtphasen wrote:
Warum denn sollten überhaupt noch Experimente durchgeführt werden, wenn sogar dazu Gewissheit bestünde, dass die QCD absolut sicher sei?
end quote.
Experimente kann man sogar nur dann machen, wenn man weiss, das eine Theorie absolut sicher ist.
Das aus den Grundgleichungen der QCD folgt, dass sie sicher ist, heisst wie gesagt nicht, dass man für jede experimentelle Situation bis auf unendliche Stellen hinter dem Komma die Messwerte genau im Computer berechnen kann. Genau für solche Präzisionsmessungen interessiert man sich aber hier
achtphasen wrote:
Was bitte ist Masse? Was verleiht der Materie Gewicht? Ist Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint)
end quote.
Was Masse ist finden sie sogar in der Wikipedia.
http://de.wikipedia.org/wiki/Masse_%28Physik%29#Ursprung_der_Massen_der_Elementarteilchen
Wie sie erzeugt wird finden sie hier:
http://de.wikipedia.org/wiki/Higgs-Mechanismus
achtphasen wrote:
Ist Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint) – oder kommt die Masse doch eher vom Higgs-Boson, wie am CERN offenbar geglaubt wird? Oder ist das Higgs-Boson nun ein Wirbel einem Feld in der Raumzeit?
end quote.
Das was sie hier schreiben hat alles keinen Bezug zu den echten physikalischen Gleichungen.
Physikalisch ist die Sache klar. Es würde ihnen nichts bringen, wenn ich jetzt von Massematrizen, Kopplungskonstanten, Lageragedichten reden würde.
Speziell sollten sie, achtphasen, sätze wie:
achtphasen wrote
Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint)
end quote.
ganz schnell vergessen, denn diese haben nichts mit den konkreten Gleichungen zu tun.
Wenn Wilcek wirklich solchen Unsinn gesagt hat, (bitte Quellenangabe), dann brauchte er wahrscheinlich Geld welches er durch irgend ein Zeitungsinverview oder einen Artikel für die Laienpresse reinholen wollte.
Physikalisch ist klar, wie Masseterme in das Standardmodell kommen können. Nur dass man eben 4 Alternativen hat, die ziemlich gleichwertig sind und man sie nacheinander prüfen muss.
Die Auswirkungen von Massetermen für Interaktionen und für die Raumzeit sind ebenfalls klar und auch schon längst experimentell geklärt.
Eine Gefährlichkeit des LHC folgt aus alledem nicht.
Wo finde ich, bitte, die öffentliche Antwort auf das Dokument
arXiv:0808.1415v3.pdf v. 9.8.2009 ?
Hallo Herr Uebbing,
ich schlage vor, sie fragen das Rainer Plaga und teilen uns danach seine Antwort mit.
Grüsse galileo2609
Hansi hat geantwortet:
Und weiter hat ‚Hansi‘ geschrieben:
Hier muss ich ‚Hansi‘ auf die Selbstverständlichkeit aufmerksam machen, dass auch im Jahr 2010 noch immer die Realität der Prüfstein für die Theorie (konkrete Gleichungen) ist.
Hansi bringt in Diskussion mit Herrn Rössler repeditiv ein, dass Rösslers ‚TeLeMaCh‘ Blödsinn sein müsse, weil konkreten Gleichungen widersprechend
(Schutz 2.33 und damit verbunden auch anderen Gleichungen | http://www.achtphasen.net/index.php/plasmaether/2010/12/09/das_gewicht_des_urkilogramms#c5148 )
Für ‚Benni/Hansi‘ ist
Dass ‚Hansi/Benni‘ ein beeindruckend grosses Wissen um die Formeln des Standardmodelles hat, das ist allen Lesern klar.
Weniger klar ist, ob das, was Wilcek sagt, wirklich solch Unsinn ist, wie ‚Hansi/Benni‘ zu wissen glaubt:
Das Rätsel, was denn Masse ist, ist nicht ’nur‘ für Wilcek eine offene Frage, die er eben mit der Vermutung beantwortet, es handle sich bei Masse um Wirbel in der Raumzeit
(Quelle: Sequenz in dem hier wohl nicht so genehmen Sancho-Video, (Minutenangabe folgt später)),
sondern nebst Wilcek sagt auch Rujula das Gleiche und zwar in einem CERN-PR-Video (den ich mich also traue hier zu verlinken):
Den Link bitte!
Im Zitat steht übrigens nichts von Wirbeln. Sie biegen sich wieder einmal lediglich eine populäre Erklärung so zurecht, dass sie in Ihr esoterisches Weltbild voller Wirbel und Schwingungen und sonstigem Blödsinn passt.
achtphasen wrote:
zitat wilcek:
The vacuum is a substance and, like any other substance, you can make it vibrate, and the vibrations of the vacuum are called ‘higgs-particles’ and that is the object, we are most trying to find at the LHC. The higgs-particle is essential to theoretical physics because it’s different from any other we have discovered so far. It is the one responsible for the masses of all other particles.
end quote.
Das obige Wilcek zitat ist, wenn auch schwammig, korrekt. Was Wilcek als „vibrationen“ bezeichnet, sind aber keine „Wirbel“ sondern die Moden im Feldoperator eines Quantenfelds:
http://de.wikipedia.org/wiki/Quantenfeldtheorie#Kanonischer_Formalismus
Das hat mit „Wirbeln“ nichts zu tun, sondern mit Forieranalyse.
Allerdings muss man zum Wilcek Zitat erwähnen, dass es zum Higgs Mechanismus ca. 4 Alternativen gibt.
Und der LHC soll nun im Experiment prüfen, welche von den 4 Alternativen zutrifft.
Von den Gleichungen her ist die Sache mit der Masseerzeugung aber dennoch klar, denn die Mechanismen, welche die Massematrix in den verschiedenen alternativmodellen erzeugen sind alle sehr sehr ähnlich.
Es würde aber hier nichts bringen, wenn ich auf die genauen Unterschiede der Modelle wie Technicolor, Little-Higgs, Supersymmetrie und den Higgs Mechanismus im gewöhnlichen Standardmodell eingehe.
Das ist kein Zitat von Wilcek.
Redaktion hat recht, das ist kein Zitat von Wilczek.
@achtphasen: Wo bleibt der Link?
Der Link kommt dann schon noch, nur Geduld. Warte auf eine Antwort – mag nicht das gesamte Film-Oeuvre durchsuchen.
Hallo achtphasen,
Luis Sancho ist ein völlig durchgeknallter Spinner. Da haben sie schon recht, dass dieses Individuum von normalen Leuten nicht besonders geschätzt wird. Bei ihnen ist das anders, sie haben nicht nur ein Ohr für Sancho, sie stellen ihm auch Raum für seine absurden Halluzinationen und Verschwörungstheorien bereit. Es würde mich nicht wundern, wenn sie Sanchos Perversionen zu ihren eigenen machen würden.
Das entbindet sie nicht von der Pflicht, ihre Aussage zu Wilczek zu belegen. Und zwar pronto!
Grüsse galileo2609
Nachtrag:
Bei wem müssen sie denn nachfragen, achtphasen? Sie erwarten Geduld dafür, eine Quelle anzugeben? Wie lächerlich ist das denn?
galileo2609
Gut gebrüllt, galileo!
galileo gefällt sich mal wieder in der Rolle des Hausherren – es wird per Imperativ kommuniziert.
Dennoch: Wilczek schreibt man mit z, ich bedauere meinen Flüchtigkeitsfehler. Dass dieser Fehler hier nun multipliziert wird, dass hat Herr Wilczek nicht verdient.
Ich habe die Filmsequenz ’nur‘ einmal gesehen – aber bezeichnend ist, mit welcher Ueberzeugung Frank Wilczek diese Aussage gemacht hat.
Wie gesagt habe ich keine Lust mir nun alle möglichen Streifen durchzusuchen. Darum frage ich nach. Antwort kommt schon noch. Und falls ich keine Lust mehr habe auf dieser Websize dazu zu berichten, dann eben auf achtphasen.
Wünsche heitere Abendstunden!
Sie sind faul, achtphasen. Und das passt nicht zu ihren haltlosen Behauptungen. Also, machen sie sich an die Arbeit.
Da befürchtet jemand den Weltuntergang, ist aber zu faul eine Quelle zu suchen.
Irgendwie passt das doch alles nicht zusammen, achtphasen. Nicht wahr?
hihi …
ich lieferet so viel an Material, dass seit vielen Monaten mindestens 50% der hier auf dieser wissenschaftlichen Website diskutierten Themata Bezug zu Material haben , das ich auf auf achtphasen publiziere…;
und werde von ‚Redaktion‘ als
bezeichnet.
Der CERN hat Winterpause. Es ist Adventszeit. Sie erhalten die Quelle schon noch.
Haben Sie wieder zuviel getrunken oder geraucht? Oder wie kommen Sie sonst auf diese absurde Zahl?
Das Herumdrucksen der LHC-Kritiker wenn es um Quellen geht ist langsam nur noch peinlich. Es passt nicht zur angeblichen „Besorgnis“. Und damit sind wir wieder bei ihrer Wunschvorstellung, 50% dieses Blogs würden sich mit irgendwie auf sie beziehen – wie immer nehmen sie sich zu wichtig. 😀
Das ist ja nun nichts neues. Lebt Seit fast 50 Jahren vom Geld anderer Leute, leistet keinen Beitrag zur Gesellschaft und ist ausgeprägt selbstgefällig.
Noch wichtiger aber: er lernt eifrig von seinem Führer! Rössler zeigt doch gerade auf Fasnacht’s Schmuddelseite, dass er selbst von Arbeit nichts hält. Die Herleitung seiner abstrusen Drogenträume sei doch einfach, nur er selber will es seit über zwei Jahren nicht leisten.
Also eines muss ich Fasnacht zuestehen: er lernt wirklich noch was – wenn auch das falsche!
Greeting from NY
MM
Hallo achtphasen,
es ist schon klar, dass in ihrem Milieu Referenzen nicht besonders wichtig sind. Da reicht auch eine Einbildung, eine Selbsterfahrung oder ein rauschhaft bedingtes Erlebnis.
Wenn sie ernstgenommen werden wollen, gilt es, auch ein indirektes Zitat konkret zu belegen. Sie sollten bei ihrer Anfrage an den Spinner Sancho auch nicht vergessen, nach dessen Quelle zu fragen. Sonst wird das nichts.
Dass sie mit einem so durchgeknallten Fanatiker allerdings Kommunikation pflegen, ist wirklich erschreckend. Aber in ihrem Milieu offenbar normal. Auch Otto E. Rössler hält ja grosse Stücke auf diesen abgedrehten Extremisten:
Ihre ehrenwerte Gesellschaft kennt wirklich überhaupt keine Anstandsgrenzen, wenn es um die Selbstinszenierung geht.
Grüsse galileo2609
Ein paar Gedanken zu der oben nachlesbaren Aussage,
die QCD ( der Quantenchromodynamik, der
Lehre von den Farbkräften als Kernkräfte etc.)
ist „absolut sicher“.
Vielen Dank zunächst für die wirklich informativen,
fachlichen Aussagen im Beitrag
#172 16. Dezember 2010, 16:06 !
Ich möchte die Aussagen aus dem Beitrag nicht in ihr
Gegenteil verkehren, sie sprechen jedoch für sich selbst.
Einige Worte zu der Formulierung
„Das ändert aber nichts daran,
dass die QCD absolut sicher ist.“
seien jedoch gestattet.
Nun, die Progronoseschwächen, die Lattice-QCD,
ein Rechenhilfsmittel basierend auf der QCD,
offenbart hat, wurden im Detail beschrieben (physikalische
Parameter, die um einen beachtlichen Faktor,
nämlich m e h r als eine Größenordnung
von der beobachteten physikalischen
Realität differierten). – Ein besseres Hilfsmittel
als Lattice-QCD stand offenbar nicht zur Verfügung resp.
wäre zu zeitaufwendig gewesen, was zugleich auch eine Aussage
zur Prognosefähigkeit der Theoretischen Physik
in einem bestimmten Bereich darstellen mag.
Da Quantentheorie und Relativitätstheorie
in einigen Bereichen untereinander widersprüchlich
sind und die QCD (Quantenchromodynamik) als Teil einer
umfassenden Quantentheorie gilt, muss man eher formulieren dürfen:
Die QCD (und auch die ART) steht durchaus auf dem Prüfstand neuer Experimente und Beobachtungen, denn beide Theorien
können nicht überall gleichzeitig mit letztendlich abschliessender
Präzision gültig sein.
Was ist mit einer Aussage z.B., dass auch
gut statt drei vier Farbkräfte denkbar sind, wie
bereits alternative Simulationsrechnungen ergaben?
Wie sicher sind dann noch die Aussagen der derzeitigen
QCD wirklich ?
Wieso fällt hier dann eine Formulierung wie
die QCD sei „absolut sicher“ ?
Meint diese Formulierung
a) aus der QCD lassen sich keine
potentiell gefährlichen exotischen Teilchen etc.
ableiten
oder meint sie
b) die fachlichen Aussagen,
die die QCD ausmachen, wären sicher
(dann wäre jedoch die weitere Erforschung der
QCD evtl. nicht sinnvoll zweckorientiert ?).
Schlussfolgerung – aus meiner Sicht darf
vielleicht zutreffender formuliert werden:
„Die QCD ist bedingt sicher, so dass sie prüfungswürdig
ist.“
Die detaillierten Bedingungen sind jedoch für eine objektive
Beurteilung entscheidend.
übbing wrote:
Wieso fällt hier dann eine Formulierung wie
die QCD sei “absolut sicher” ?
Meint diese Formulierung
a) aus der QCD lassen sich keine
potentiell gefährlichen exotischen Teilchen etc.
ableiten
end quote.
Genau dies meinte ich. Zusätzlich war folgendes gemeint:
Es können durch die QCD selbst keine gefährlichen Prozesse bei Teilchencollidern entstehen und die QCD kann solche gefährlichen Prozesse aufgrund ihrer Eigenschaften nicht unterhalten.
Übbing wrote:
Was ist mit einer Aussage z.B., dass auch
gut statt drei vier Farbkräfte denkbar sind, wie
bereits alternative Simulationsrechnungen ergaben?
end quote
Nein, eine solche Aussage ist in der QCD nicht enthalten und kann auch nicht aus ihr folgen.
Auch nicht aus einem Näherungsmodell, welches die QCD simuliert.
Um zu behaupten, es gäbe zusätzliche Farbladungen, muss man die als zusätzliche Annahme zur QCD hinzufügen. Damit ändert man dann aber die Gleichungen der QCD grundlegend.
Solche Modelle sind aus zwei Gründen problematisch:
1) Im Bereich der QCD müsste man zunächst beweisen, dass die Erweiterung immernoch die bisher bekannten experimentellen Tests reproduziert
2) Bisher reichte für jede Rechnung die normale QCD aus. Immer wenn es eine Diskprepanz zum Experiment gab, lag es an einem mangelhaften Näherungsmodell im Computer. Wurde das Näherungsmodell verbessert, kam stets heraus, dass die QCD die Natur ausreichend gut beschreibt.
Es gibt also keinen Grund für Zusatzannahmen, wie etwa einer zusätzlichen Farbladung. Man muss sich zusätzlich klarmachen,
dass eine solche Zusatzannahme auch eine erhebliche Änderung der QCD bedeuten würde. Immerhin müsste sich ihre Lageragedichte ändern, was in alle Rechnungen wo QCD Ergebnisse genutzt werden, einfließen würden müsste.
Das Argument mit zusätzlichen Farbladungen ist ähnlich wie die Hypothese eines Ufos das morgen vor ihrer Tür auftauchen soll.
Es kann sein, dass man die Hypothese, dass morgen ein Ufo vor ihrer Tür auftauchen soll physikalisch beschreiben kann, ohne dass das resultierende Modell inkonsistent mit bisherigen physikalischen Experimenten oder auch der Mathematik wäre.
Bei einem Ufo, das morgen vor ihrer Tür auftaucht, können sie natürlich nicht sagen, ob sie morgen noch sicher sind.
Aber niemand hat bisher etwas derartig abseitiges beobachtet. Daher gibt es keinen Grund, zu behaupten, morgen stünde ein Ufo vor ihrer Tür.
Ähnlich verhält es sich mit angeblichen zusätzlichen Farladungen. Denn dies wäre eine erhebliche änderung der QCD. Immerhin müsste sich ihre Lageragedichte ändern, was in alle Rechnungen einfließen würde..
Interessanterweise sind die Gleichungen der QCD nun auch noch so, dass selbst wenn man solche Hypothesen in diese Theorie einfügt, sich daraus keine Gefahr bei Colliderexperimenten ergeben würde.
Mit dem Beitrag #196 v. 18. Dezember 2010, 21:07, kann
ich, was die Schlussfolgerungen betrifft, nicht übereinstimmen –
ich begründe warum:
Hier ist ergänzend erstens darauf hinzuweisen,
dass die LHC-Sicherheit (rein auf Basis der Quantentheorien –
nämlich keine potentiell gefährlichen exotischen Teilchen etc.)
unter Hinzunahme eines weiteren Modelles (ADD-Modell)
von den CERN-Wissenschaftler Giddings und Mangano
auf theoretischer Grundlage als n i c h t ausreichend
sicher nachweisbar angesehen wurde,
so dass diese Wissenschaftler sich veranlasst sahen,
ausdrücklich auf empirische, astronomische Sachverhalte Bezug zu nehmen,
um eine Sicherheitsaussage machen zu können;
dabei nannten sie jedoch leider einige der zugehörigen Zuverlässigkeitswerte
(Signifikanzniveaus) nicht und werteten diese auch nicht aus.
Der Versuch einer Quantifizierung unterblieb leider; weitere ausstehende
Fragestellungen konnten nicht ins Blickfeld rücken.
Tatsächlich galt für G&M:
R e i n aus der Theorie heraus ist k e i n e ausreichende Sicherheit zu
gewährleisten, deswegen musste ihrerseits auf die E m p i r i e
zurückgegriffen werden.
Leider diskutierten G&M zwecks Widerlegung leider dabei auch nicht
eine um ca. 3 Jahre ältere publizierte Erkenntnis (peer reviewed, basierend
auf einer speziellen astronomischen Datenbasis),
dass nämlich im Jahr 2005 eine Risikoobergrenze
zu einem j ä h r l i c h e n Risiko
mit einem konkret bezifferten Wert u n g l e i c h Null
für neue Collider-Technologie anzugeben war.
Zweitens ist hier doch zusätzlich die Frage zu stellen,
welches die spezielle Facharbeit ist,
die nachweist – z.B. auf Basis der QCD -,
dass durch bestimmte exotische Teilchen
keine energetisch aktiven Umsetzprozesse mittels Neutroneneinfang
ausgelöst werden; diese waren zuvor sehr wohl in der Diskussion.
Drittens ist, wie ich meine, der Energiehaushalt resp. sind die
Energie erzeugenden Prozesse in einigen Exoplaneten
aufzuklären, deren Quellen für eine innere Hitzeerzeugung
derzeit unbekannt sind.
Diese definitiv astronomisch beobachteten Exoplaneten
sind durchaus ein denkbarer Hinweis resp. Indizien dafür,
dass ein sog. “Szenario 3″ tatsächlich, wenn auch
vielleicht in einer anderen unerwarteten Weise, existieren mag.
Damit ist definitiv der leise Zweifel, den es doch gilt,
in j e d e m Fall zu widerlegen, durch die astronomisch
dargestellte Realität in die Diskussion geraten.
Festzuhalten ist:
Dass LHC-Experiment erzeugt eine
völlig andersartige Restimpulsverteilung der Kollisionsprodukte
als wie im natürlichen Fall auf der Erde oder auf den Himmelskörpern
durch die kosmische Strahlung zu erwarten ist.
Der LHC eröffnet für die künstlichen Kollisionsprodukte
andere Entwicklungs- und Reaktionspfade als die,
die in der Natur vorfindbar sind,
auch dadurch, dass suprafluide Stoffe sich in der Nähe aufhalten, in die
die Kollisionsprodukte grundsätzlich hineingeraten können.
Im wesentlichen sind es folgende zwei Unterschiede (zwischen Natur / LHC):
a) der Ereignisraum ‘elastischer’ Stöße wird unnatürlich vergrößert,
und zwar dadurch, dass kein relativistisch harter, vernichtender Folgestoß
zwingend erfolgt.
b) Keineswegs ist sicher, dass die kosmische Strahlung derart
schwere, relativistisch schnelle Kerne wie Blei enthält.
Die Natur macht k e i n e LHC-Experimente; die LHC-Experimente
führen zu anderen Bedingungen, die erkennbar
auf den Himmelskörpern, in der Natur n i c h t gegeben sein müssen.
Deswegen kann das LSAG-Argument (Kosmische Strahlung) meinerseits
nicht nachvollzogen werden.
Der Konsens bei Giddings und Mangano war hingegen, dass für ihren
Sicherheitsnachweis auf empirische Sachverhalte zurückgegriffen
wurde – warum soll dieser Konsens im Falle der auffälligen Exoplaneten
nicht mehr gelten ?
@ Rudolf Uebbing
Ihre Wertung ist falsch. LSAG arbeitete nach dem Imperativ „Even if“.
Der weitere Inhalt Ihres Kommentars ist nicht tragfähig. Ebensowenig wie Ihre extrem wissenschaftsfernen Selbstgespräche der letzten Tage.
Übbing wrote:
Hier ist ergänzend erstens darauf hinzuweisen,
dass die LHC-Sicherheit (rein auf Basis der Quantentheorien –
nämlich keine potentiell gefährlichen exotischen Teilchen etc.)
unter Hinzunahme eines weiteren Modelles (ADD-Modell)
von den CERN-Wissenschaftler Giddings und Mangano
auf theoretischer Grundlage als n i c h t ausreichend
sicher nachweisbar angesehen wurde,
end quote.
Das ADD Modell ist keine reine Quantentheorie. Das ADD Modell ist die Hypothese, dass grosse Extradimensionen existieren würden.
Dies ist eine spekulative hypothese, welche abwegig ist, weil so etwas noch nie beobachtet wurde und auch nicht aus bekannten Gleichungen folgt. Tatsächlich ist das ADD Modell genau ein solches, wo eine Hypothese (grosse Extradimensionen) grundlos vorgeschlagen wird, und dann die Gleichungen geändert werden müssen.
Das ist in etwa ein so wahrscheinliches Szenario wie die Hypothese von Ufos.
Das die QCD eine sichere Theorie ist, folgt ganz einfach aus ihren Eigenschaften. Da Quarks nie isoliert vorkommen kann es nur passieren, dass die Quarks der kollidierenden Hadronen zunächst gemeinsam in ein Gas, ein heisses Quark Gluonen Plasma, übergehen.
Dieser Zustand wird ermöglicht durch die Energie der kollidierenden Teilchen. Man hat damit zunächst quasi eine art gasförmigen Atomkern produziert.
Der Witz an der QCD ist nun, dass, aufgrund der asymptotischen Freiheit der Theorie folgendes passiert:
Sobald die Temperatur in dem Gas wieder zurückgeht, gruppieren sich die Quarks wieder zu den bereits bekannten langlebigen Hadronen des Standardmodells zurück.
Das ganze ist anschaulich etwa wie das Kochen von Wasser in zwei Töpfen, welches in eine gemeinsame Dampfwolke aufgeht.
Gäbe es eine art asymptotische Freiheit beim Wasser, würde der Dampf, wenn er wieder abkühlt sich automatisch in die selben Töpfe zurückgruppieren.
Das Verhalten der QCD ist die prinzipiell kontrollierbarste Reaktion die denkbar ist.
Es kann (ähnlich wie beim Verdampfen von Wasser) beim Quark Gluonen Plasma keine zusätzliche Energie frei werden. Zusätzlich kann nichts neues entstehen, da am Ende wieder die selben Ausgangsstoffe, nämlich die bereits bekannten und ungefährlichen Hadronen vorliegen müssen.
Ehe ich auf den Beitrag #199 v. 19. Dezember 2010, 03:08
mit drei Einwänden antworte, möchte
ich auf eine ältere Anfrage aus dem
AC-Forum bzgl. ‚peer-reviewed‘ eingehen
– dazu meine Überschrift bitte:
peer-reviewed:
Risikoobergrenze des LHC ungleich Null
Der von der AC-Redaktion geäusserte Wunsch nach
Angabe von Artikeln mit „peer review“-Merkmal
wurde von mir bereits schon einmal positiv beantwortet
(Nature 438, p.754 – wo in 2005 eine bezifferte Risikobergrenze
ungleich Null zu einem jährlichen Risiko für
neue Collider der Teilchenphysik beschrieben
wurde.) –
hier nunmehr im Folgenden die Nennung einer
weiteren, mittlerweilen „peer-reviewed“,
mithin ausreichend geeigneten, qualifizierten Facharbeit.
Die Arbeit zur Risikobeurteilung
„Probing the improbable: methodological challenges for risks with
low probabilities and high stakes“
von Ord, Hillerbrand und Sandberg ist nunmehr
in einer Zeitschrift erschienen, sh. bitte
Journal of Risk Research, Volume 13, Issue 2 March 2010,
pages 191 – 205.
Die Zeitschrift beschreibt, dass ihre Artikel zur Forschung
(Research) einem „peer review“ im Doppelblindverfahren unterliegen.
sh. – http://www.tandf.co.uk/journals/titles/13669877.asp :
„Peer Review Policy
All research articles in this journal have
undergone editorial screening and double-blind peer review.“
Ein Resumee aus der o.g. Facharbeit, S. 202 im Journal,
lautet – Zitat:
„However, our analysis implies that the current safety report should not be the final
word in the safety assessment of the LHC. To proceed with the LHC on the arguments
of the most recent safety report alone, we would require further work on estimating
P(¬A), P(X|¬A), the acceptable expected death toll, and the value of future generations and other life on Earth. Such work would require expertise beyond theoretical physics, and an interdisciplinary group would be essential. If the stakes were lower, then it might make sense for pragmatic concerns to sweep aside this extra level of risk analysis, but the stakes are astronomically large, and so further analysis is critical. Even if the LHC goes ahead without any further analysis, as is very likely, these lessons must be applied to the assessment of other high-stakes low-probability risks.“
Was seitens der genannten Autoren vermisst wird, ist die Anwendung robuster Schätzmethoden,
die grundsätzliche Fehlerhaftigkeiten in den Theorien, Modellen und Kalkulationen berücksichtigen können.
Die Autoren des Artikels schätzen das derzeit abzuhandelnde Risiko des
LHC keineswegs als nullwertig ein – dabei ist die Information nicht
ohne Bedeutung, dass unter den Verfassern eine Professorin ist,
die eine preisgekrönte Doktorarbeit in der Theoretischen Physik erstellt hat.
Die Anwendbarkeit oder Brauchbarkeit des in dieser Facharbeit beschriebenen
Ansatzes zur Risikobeurteilung setzt offenbar bestimmte robuste Schätzmethoden
voraus, die offenbar im vorliegenden Fall des LHC n i c h t zur Anwendung gekommen sind
resp. sogar noch entwickelt werden müssen –
angesichts der diskutierten ausserordentlichen, astronomischen Risikohöhe,
eine o b l i g a t o r i s c h e Aufgabe –
wie ich als evtl. mitbetroffener Bürger zurecht meinen darf.
Download d. Facharbeit als Artikel im o.g. internationalen Journal:
http://www.amirrorclear.net/academic/papers/risk.pdf