Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers

von Redaktion am 6. Dezember 2010

Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.

Otto E. Rössler, Baden-Baden 2010

Otto E. Rössler, Baden-Baden 2010

RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.

Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.

  • Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!

RelativKritisch E-Edition

 Als ePub herunterladen 1998

Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!

Ähnliche Beiträge

1.318 Kommentare |
 
  1. #151 | Hansi | 15. Dezember 2010, 03:27

    galileo wrote:
    aus höchst spekulativen physikalischen Theorieentwürfen, insbesondere der String- und M-Theorie stammen
    end quote.

    Das ist nicht richtig. Diese entwürfe kommen kaum aus der Stringtheorie. In der Stringtheorie sind die Extradimensionen winzig klein. Abweichungen zur gewöhnlichen Physik gibt es auf Energieskalen im LHC Bereich, zumindest nach seriösen Stringtheorietikern, keine einzige.

    Die Stringtheorie ist eine Quantengravitationstheorie. Das hat mit LHC Phenomenologie nichts, aber auch gar nichts zu tun.

    Modelle über „Large-extra-dimensions“ oder „mini black holes“ oder Strangeletts haben mit der Stringtheorie nichts, aber auch gar nichts zu tun.

    galileo wrote:
    Im Rest der Welt suchst du mit der Lupe nach lupenreinen theoretischen Theoretikern, die der Dominanz der String-Theoretiker etwas entgegensetzen können
    end quote.

    Da hast du wohl was falsch verstanden. String-Phenomenologen must du übrigens tatsächlich suchen. Die gibt es zwar, aber das meiste, was unter Stringtheorie läuft, hat mit phenomenologie nicht sehr viel zu tun.

    Es sei denn man meint eine „Phänomenologie“ auf der Planckskala. Es ist definitiv unmöglich, eine phänomenologie der Stringtheorie im Bereich von LHC Energien zu betreiben.

    In diesem Bereich ist die Stringtheorie so abgerichtet, dass sie die Eichgruppen des Standardmodells reproduziert, und nichts weiter. Genauso wie man es sich ja auch von einer seriösen Quantengravitationstheorie erwarten würde.

    Der Unsinn mit den „Large Extra dimensions“, den „Mini-Black Holes“ oder den „Strangelets“, der kommt von fast ausschliesslich amerikanischen Phänomenologen, die darauf angewiesen sind, kurze und einfache Arbeiten zu produzieren, weil ihnen die Zeit und die Ressourcen für ernsthaften phänomenologische Rechnungen fehlen. So wie es aussieht, sind diese Ressourcen aber schon seit Jahren auf Kontinentaleuropa beschränkt. Insbesondere sind hier die deutschen Max Planck Institute hervorzuheben, welche die im Bereich der Hochenergiephysik weltweit meist Zitierten Arbeiten produzieren, siehe etwa:

    http://sciencewatch.com/inter/ins/09/09Top20Overall/

    (wobei ich den link zur genaueren Aufschlüsselung, wo auch das jeweilige Fachgebiet drinnsteht, nicht mehr finde. Da kommt dann nämlich heraus, dass es die Hochenergie-phänomenologie der MPI’s ist, welche da die Zitationslisten so hoch treibt.

    Und wenn man sich hier umsieht, bemerkt man, dass in Deutschland kaum jemand an „Mini Black holes“, Large Extra Dimensions, oder Strangelets arbeitet.

    Das hat gründe.

    Es gibt in Deutschland übrigens eine Stringtheorie.

    Aber dort, wo sie betrieben wird, etwa am MPI für Gravitationsphysik, findet man auch keine „large extra dimensions“ und auch keine“Mini-Black holes“ oder „Strangelets“. Allenfalls ein paar verirrte Studenten oder einzelne Wissenschaftler, die das machen.

    Aber in Europa sind es, das muss man betonen, nur Einzelne, welche diese abseitigen spekulativen phänomenologischen Modelle propagieren.

    Diesen Kommentar: Zitieren
  2. #152 | Rudolf Uebbing | 15. Dezember 2010, 12:23

    Erst einmal vielen Dank für eine
    Rückkehr zu möglichst sachlichen Inhalten und zu nur
    minimal persönlich bezogener Kommentierung.
    (sh. Kommentar #149 | Hansi | 15. Dezember 2010, 01:11).

    Ich komme zurück auf die Vorhersagbarkeit zu
    den Resultaten physikalischer Experimente.

    Bei der derzeit erlebbaren, deutlichen Prognoseschwäche
    der professionellen Theoretischen Physik ist mittels
    einer Aussage wie
    „aufwändige Rechnungen, etwa zur QCD,
    die mehrere Jahrzehnte brauchen können“,
    nicht unbedingt ein zusätzliches Vertrauen
    in die vorhandenen Sicherheitsanalysen (LSAG-Report) herbeiführbar.

    Wendet man das TMC-Modell (sh. Arbeit v. T.ORD
    et al.) auf o.g. Aussagen (BdW 2009/2, S. 49 ff, sh. o. a),b),c)) an, wird klar,
    dass bereits schon die Verlässlichkeit mancher HEP-Kalkulation,
    – wobei unbedingt die Verlässlichkeiten der Theorie
    und der Modelle eine maßgebliche Rolle spielen -,
    schon beachtenswerten Unsicherheiten in der Prognose bedeuten
    (im beschriebenen Fall des QGP bei Bleikernkollisionen,
    z.B. eine Abweichung um das 30- bis 50-Fache der Materiedichte).

    Umso verständlicher wird, dass Giddings und Mangano,
    wegen der vorhandenen theoretischen Unvollkommenheiten,
    auf astronomische Sachverhalte ausweichen mussten,
    um eine Sicherheit nachweisen zu können – leider
    hat sich herausgestellt, dass von ihnen wesentlichen,
    Indizien gleichkommenden, unzweifelhaften astronomischen
    Beobachtungssachverhalten k e i n e Aufmerksamkeit gewidmet wurde
    (z.B. ungeklärte Energiehaushalte bei einigen Exoplaneten).

    Wenn ein Eindruck erweckt würde, dass der speziellen Kalkulation,
    der praktischen Umsetzung mit Computerprogrammen zu den QGP-Prognosen,
    nicht das Standardmodell und nicht die QCD zugrunde gelegen hat,
    halte ich dies für irreführend – ich gehe davon aus, wie
    der Kommentator im Beitrag #78 vermerkte, dass sehr wohl die QCD,
    das Standardmodell, den professionellen Berechnungen zu den
    QGP-Zuständen (sh. BdW 2009/2, S.49 ff) zugrunde gelegen hat,
    obschon leider grob von der Realität abweichende
    Resultate produziert wurden. Die Schwierigkeiten (Dauer
    mancher Berechnungen bzgl. QCD über möglicherweise Jahrzehnte)
    der Prognose wurde bestätigt, die ja bereits in anderer Weise schon für die Theorie der
    Hydrodynamik gilt (in diesem Zusammenhang mag auch ein sog.
    „Blow-up-Phänomen“ von Bedeutung sein).

    Zu meinem persönlichen Herkunftsort, bitte, eine einfache
    Antwort: Die Antwort hierzu bedarf nicht der Verschleierung
    durch eine Nicknamensidentität.

    Lieber ‚Hansi‘ – Sie haben aus
    meinen Ausführungen folgendes gemacht:
    „Zunächst ist es etwas skurril,
    dass Herr Übbing behauptete,
    es gäbe keine Datenbanken
    in denen sämtliche Theorien gelistet sind.“
    Möglicherweise haben Sie unvollständig nachgelesen.

    Lesen Sie bitte dazu noch nach:
    „Verfasst am: 11.11.2010, 11:16
    Titel: Re: Anfrage zu einigen Quellen – hier Physikerzitate

    rudolfuebbingdo hat Folgendes geschrieben:
    Zitat:
    „Derzeit gibt es in der Physik einen enormen Überhang
    von Theorien und Modellen gegenüber dem Experiment.
    Genau deshalb warten ja auch von alle in diesem
    Bereich forschenden Wissernschaftler so begierig
    auf die Ergebnisse dieses Experiments.“

    Aus meiner Sicht wäre es genau wegen des enormen Überhanges
    von Theorien dringend notwendig, methodisch die Vielzahl von Theorien
    auf ein ganz neues Fundament wissenschaftlichen Vorgehens
    – vor der Durchführung gewisser Experimenten – zu stellen,
    auch und gerade unter Hinzunahme von automatisierten Verfahren,
    die es freilich gilt, noch zu entwickeln. Ein erster Schritt wäre
    eine standardisierte Datenbank aller konkurrienden, speziellen Theorien
    und Theorien; sicherlich gibt es dazu schon Aktivitäten und erste
    Realisierungen; dies und mehr wäre aber vordringlich, wie ich meine.“

    Zu den persönlichen Diskreditierungen (Kommentare vor #148):
    Hier empfehle ich einmal in das eigene Spiegelbild zu schauen,
    d.h. zu überlegen, ob die in einigen Beiträgen
    formulierten persönlichen gemeinten Abwertungen
    doch eventuell zur produktiven Selbstreflexion
    verwertbar sind; dies scheint hart formuliert, muss jedoch
    aus bestimmten Gründen einmal derart ausgesprochen werden.

    Fehlinterpretationen sind auf AC von mir oft beanstandet worden,
    die jüngste, oben hinzugekommene davon ist die,
    die ich hier ebenfalls ausdrücklich beanstande,
    dass der Eindruck erzeugt wurde, ich hätte mich mit Einzelheiten
    der o.g. Neocosmology auseinander gesetzt.

    Meine Zeit ist sinnvoller eingesetzt, für mich aufzuklären,
    ob mittlerweile alle vorhandenen, beobachteten Messergebnisse
    z.B. mindestens von einer einzigen Theorie
    im Rahmen der Messgenauigkeit dargestellt werden;
    ich gehe jedoch davon aus, dass die genaue Reproduktion
    etlicher Messergebnisse der HEP vielmehr derzeit noch
    in erheblichen Ausmaß o f f e n ist.

    Das LHC-Experiment dient – so wie es sich damit präsentiert –
    n i c h t gezielt ausschließlich
    der Bestätigung von Theorien und Modellen
    (weil niemand sich die erfolgreiche Mühe gemacht hat,
    die Theorien und Modelle vorweg zu komplettieren –
    das soll bitte kein Vorwurf sein, sondern der Wunsch nach einer
    forcierten Digitaliserung der Theoretischen Physik),
    sondern bewusst in erster Linie dazu,
    mit n e u zu beobachtenden, erwarteten, derzeit noch unbekannten
    Phänomen Gedankenanstöße etc. zu gewinnen, die d a n a c h
    erst der weiteren Theorieentwicklung dienen,
    d.h. mithin werden e r h e b l i c h e Überraschungsmomente
    gezielt in Kauf genommen.

    Zu sagen, wir stehen vor einem Rätsel, wir können nur noch
    experimentieren, reicht im vorliegenden Fall n i c h t aus, wie ich meine.

    Ist ein solches, provisorisch anmutendes Vorgehen in Ordnung,
    wenn u n b e k a n n t e Urzeitkräfte im Spiel sind,
    welche durchaus prinzipiell ausser Kontrolle geraten könnten,
    z.B. weil natürliche Bedingungen nicht im zweifelsfreien
    ausreichenden Ausmaß im Experimentgeschehen reproduziert sind ?

    Die Geschichte der Atomphysik zeigt, dass im
    Bereich der Nuklearforschung mehrere derartige
    entlastende Gutachten erforderlich waren, von
    1945 an Konopinsky et al., von G. Breit in
    den 50er-Jahren, und noch bis spät in den
    70er-Jahren gab es ein weiteres Gutachten (wenn
    gewünscht wird, liefere ich auch Quellen; ich denke aber,
    diese sind aber mittlerweilen bekannt.)

    Nun, mit dem RHIC-Beschleuniger vor etwa einem Jahrzehnt
    musste in der Subnuklearforschung die
    Sicherheitsdiskussion neu belebt werden,
    was zuletzt vor über zwei Jahren zu einem
    LSAG-Report geführt hat. –

    Aus Sicht mancher, konkreter astronomischer Beobachtungen
    besteht auf Basis sehr einfach nachzuvollziehender Überlegungen
    weiterer, aktueller Klärungsbedarf.

    Ein Risiko oder ein Restrisiko kann zum jetzigen Zeitpunkt
    wissenschaftlich n i c h t als nullwertig präsentiert werden
    (Wo ist z.B. die öffentliche Antwort auf das Dokument
    arXiv:0808.1415v3.pdf v. 9.8.2009 ?).

    Aus astronomischer Sicht konnte in 2005 ein als jährlich
    beschriebenes Risiko für die neue Collider-Technologie
    nicht als nullwertig nachgewiesen werden – leider geht
    der LSAG-Report hierauf widerlegenderweise im Detail nicht ein.

    Zudem wird die Diskussion und die Festlegung eines Grenzrisikos
    vermieden, während in einem nicht ganz unähnlichen Fall
    ein sogar ein beziffertes Grenzrisiko von einem Nobelpreisträger (A.H. COMPTON,
    THE AMERICAN WEEKLY, 1959 March 8 ) als akzeptabel dargestellt wurde –
    menschlich aus einer damals leider vorhandenen Notsituation
    heraus verständlich.

    Realität und Diskussionsinhalte klaffen manchmal auseinander.

    Diesen Kommentar: Zitieren
  3. #153 | Hansi | 15. Dezember 2010, 13:08

    Übbing wrote:

    Bei der derzeit erlebbaren, deutlichen Prognoseschwäche
    der professionellen Theoretischen Physik ist mittels
    einer Aussage wie
    “aufwändige Rechnungen, etwa zur QCD,
    die mehrere Jahrzehnte brauchen können”,
    nicht unbedingt ein zusätzliches Vertrauen
    in die vorhandenen Sicherheitsanalysen (LSAG-Report) herbeiführbar
    end quote.

    Es gibt , bezüglich sicherheitsrelevanter Aspekte keine Prognoseschwäche. Und diese Rechnungen brauchen auch nicht jahrzehnte, weil man nur spezielle, extreme Ergebnisse, die makroskopische Konsequenzen haben, prüfen muss. Und da schliesst die Confinement Eigenschaft der QCD definitiv jede Gefährdungsmöglichkeit aus.

    Und das ist das einzige was relevant ist

    Übbing wrote:
    Wenn ein Eindruck erweckt würde, dass der speziellen Kalkulation, der praktischen Umsetzung mit Computerprogrammen zu den QGP-Prognosen,
    nicht das Standardmodell und nicht die QCD zugrunde gelegen hat, halte ich dies für irreführend.
    end quote

    Es ist aber korrekt.

    Denn es gibt prinzipiell keinen Computer, der kollektive Phänomene der QCD fpr ein Quark Gluonen Plasma ab-initio berechnen kann.

    Und das wird es auch in Zukunft nicht geben. Es ist einfach zu rechenintensiv.

    Beim Quark Gluon Plasma muss man insbesondere nichtperturbativ Rechnen. Dies erzwingt dann, die Lattice QCD Methoden zu verwenden, oder ein noch primitiveres Color String Modell.

    Im Übrigen steht das Problem mit der fehlenden Präzision dieser Computermodelle sogar schon in wikipedia:

    http://en.wikipedia.org/wiki/Quantum_chromodynamics#Lattice_QCD

    Zitat:
    it is a slow and resource-intensive approach. However, the numerical sign problem makes it difficult to use lattice methods to study QCD at high density and low temperature (e.g. nuclear matter or the interior of neutron stars).
    end quote

    Bevor sie, Herr Übbing einem Kommentator dreist unterstellen, dass er lügt, sollte sie sich, Herr Übbing, gefälligst selbst über Grundlagen informieren.

    Diesen Kommentar: Zitieren
  4. #154 | Hansi | 15. Dezember 2010, 13:14

    übbing wrote:
    ich gehe jedoch davon aus, dass die genaue Reproduktion
    etlicher Messergebnisse der HEP vielmehr derzeit noch
    in erheblichen Ausmaß o f f e n ist.
    end quote.

    Das sie keine Ahnung von Hochenergiephysik haben, das zeigen sie damit. Mehr nicht.

    Denn tatsächlich ist es ja genau das Problem der Beschläunigerphysik, das wirklich sämtliche Messergebnisse die man an Teilchenbeschläunigern bisher erhielt, mit einer in den 70’er Jahren aufgestellten Theorie befriedigend erklärt werden können.

    Theoretiker beschäftigen sich nur deswegen mit abseitigen Hypothesen wie Extradimensionen, weil es eben keine Messergebnisse gibt, die noch nicht von bestehenden Theorien reproduziert werden..

    Diesen Kommentar: Zitieren
  5. #155 | Hansi | 15. Dezember 2010, 13:16

    übbing wrote:
    Ein Risiko oder ein Restrisiko kann zum jetzigen Zeitpunkt
    wissenschaftlich n i c h t als nullwertig präsentiert werden
    end quote.

    Das Gegenteil wurde hier mehrfach dargelegt. Sie verbreiten dennoch weiter ihre Propaganda.

    Diesen Kommentar: Zitieren
  6. #156 | Rudolf Uebbing | 15. Dezember 2010, 16:49

    Ist es richtig, dass „Lattice-QCD“ ein Näherungsverfahren
    zu der QCD darstellt oder eine abgeleitete, praktikable Vereinfachung
    der QCD darstellt ?

    Ich erinnere dazu an den Inhalt des
    Kommentarbeitrages #78 | Quentin | 9. Dezember 2010, 16:12
    (sh. auch #79).

    Gehe ich mithin recht in der Annahme,
    dass die Prognosedaten (gem. BdW 2009/2, S. 49), die ich unter
    a), b) und c) zusammengefasst hatte,
    auf Lattice-QCD fußen,
    dass seinerseits Lattice-QCD auf QCD fußt
    und somit die Basis dieser Prognosewerte
    die QCD darstellt, wenn auch in vereinfachter Form ?

    Halten wir fest, dass die derzeitige Darstellung der
    vorhandenen Beobachtungsergebnisse durch die Theorie „befriedigend“ ist –
    befriedigend ist nicht gut. Man kann also sehr wohl
    noch an theoretischen Grundlagen arbeiten, um eine
    wirklich gute Übereinstimmung zwischen Prognose
    und Messwerte/Beobachtung zu erzielen.

    Als ziemlich aktuelle, nicht prognostizierte Beobachtungssachverhalte
    können im Kollisionsgeschehen des LHC bestimmte Überschußanteile
    spezieller Teilchen angesehen werden oder eine nicht typische, noch
    nicht erklärte richtungsmäßige Verteilung der aus der Kollision entspringenden Teilchen –
    mit einer verbesserten theoretischer Grundlage ist u.U. diese Art von
    Überraschung mit einer höheren Wahrscheinlichkeit vermeidbar.

    Der Wunsch ist, dass es nur positiv wirkende Überraschungsmomente
    geben möge.

    Diesen Kommentar: Zitieren
  7. #157 | Hansi | 15. Dezember 2010, 18:11

    übbing wrote:
    Man kann also sehr wohl
    noch an theoretischen Grundlagen arbeiten, um eine
    wirklich gute Übereinstimmung zwischen Prognose
    und Messwerte/Beobachtung zu erzielen.
    end quote.

    Bei Näherungen, wie der Lattice QCD geht das eben nicht. Sie haben da ein Computerprogramm, und die Ergebnisse dieses Programms hängen von diversen Parametern ab. Die Parameter kommen aus dem Experiment. Man kann ohne das experiment nur Raten. Und dann liegt man natürlich oft falsch. Man muss also die Parameter nachmessen.

    Übbing wrote:
    Der Wunsch ist, dass es nur positiv wirkende Überraschungsmomente
    geben möge.
    end quote

    Nein, das weiss man sicher.

    Denn die notwendigen Rahmendaten, aus denen die ungefährlichkeit aller Prozesse der QCD zwingend folgt, kann man schon exakt berechnen.

    Das man nicht für jede experimentellen Situation alle Messdaten mit einem Computer aus der QCD vorhersagen kann, sondern wegen der Schwierigkeit der Rechnungen näherungsmodelle eingesetzt werden müssen, bedeutet nicht, dass die QCD komplett unvorhersagbar ist.

    Insbesondere folgt aus den Gleichungen der Quantenchromodynamik die Eigenschaft der asymptotischen Freiheit. Aus dieser Eigenschaft folgt, dass alle durch die QCD gesteuerten Reaktionen kontrollierbar und auf einen geringen Raumbereich beschränkt sein müssen.

    Daher weiss man auch theoretisch, dass die Kollisionen am LHC welche ein Quark Gluonen Plasma erzeugen, harmlos sind.

    Das heisst aber nicht, dass man für jede experimentelle Situation jeden Messwert mit unendlicher Genauigkeit am Computer simulieren könnte. Man will genauere Daten für die Näherungsmodelle. Deswegen macht man das QGP Experiment am Cern.

    Da die QCD wegen ihrer asymptotischen Freiheit nicht gefährlich sein kann, ist das ja auch kein Problem.

    Diesen Kommentar: Zitieren
  8. #158 | Quentin | 15. Dezember 2010, 18:38

    Uebbing, wieso beantworten Sie meine letzte Frage an Sie nicht? Sie sprachen von einer „Theorieverlässlichkeit“.

    Wie wollen Sie denn prüfen?

    Diesen Kommentar: Zitieren
  9. #159 | Rudolf Uebbing | 15. Dezember 2010, 20:57

    Zu der Beantwortung möchte ich zuerst auf das TMC-Modell bei T.Ord, R. Hillerbrand und A. Sandberg schauen; ich sehe in der Arbeit dort Ansätze, wie zunächst auf pauschale Weise, aber dann möglicherweise in weiteren Entwicklungsstufe auch spezielle Theorien, was ihre Verlässlichkeitsgrade betrifft, beurteilt werden können.

    Hier sind offenbar grundsätzlich neue wissenschaftstheoretische Definitionen auf den Weg zu bringen. – Dies ist zudem eine weitergehende Frage an Wissenschaftstheoretiker, Statistiker, Informatiker, Mathematiker und andere Spezialisten, hier z.B. Maßzahlen für Verlässlichkeitsgrade zu definieren. Eine der Einflußgrößen wäre sicherlich die Abweichung zwischen beobachteten und theoretisch prognostizierten Messwert; über Systematisierungsmöglichkeiten müsste intensiv nachgedacht werden – wie ich meine, muss es bereits anderweitig Ansätze dazu geben, die ich jedoch nicht kenne. – Eine Theorienormung,
    eine zu entwickelnde Standardisierung, wäre sicherlich dabei ein Zwischenergebnis.

    Denke ich diese Aufgabe weiter in die Zukunft, so mag in einigen Jahren ein Projekt, etwa sinngemäß betitelt “Digitalisierung der Theoretischen Physik”, ernsthaft angegangen werden können.

    Man wird dann sicherlich später über Resultate staunen, welchen Stellenwert dann die eine oder andere Theorie erhält, z.B. im Sinne einer Zutreffenswahrscheinlichkeit, Aussagekraft etc., sobald es gelungen ist, hierfür begründbare Maßzahlen zu entwickeln, zu definieren und auszuwerten. –

    (Im Bereich der Wirtschaftswissenschaft und der Statistik ist man derzeit in NRW dabei, ein Projekt durchzuführen, dass neuartige Aussagequalitäten und Erkenntnisse im Vorfeld bedenklicher wirtschaftlicher Entwicklungen generieren soll, damit rechtzeitig Warnungen ausgesprochen werden können und im Falle von krisenartigen Entwicklungen gegengesteuert werden kann – hier kann ich mir vorstellen, dass man sich grundsätzliche ähnliche Gedanken machen muss.)

    Herr Kannenberg teilte mit, dass er das TMC-Modell wohl für falsch hält, wie vor über einem Jahr in einigen Details beschrieben hat – nun, in der ersten Jahreshälfte 2010 scheint die o.g. Arbeit von T.ORD et al. in einem Fachjournal (Fundstelle gab ich oben an) gedruckt erschienen zu sein, ohne dass die Einwände
    eines konstruktiv-kritisch denkenden Mathematikers von den Autoren berücksichtigt wurden – so bitte meine Sicht; ich beschäftige mich derzeit noch mit der Gegenargumentation und
    möchte davon ausgehen, dass das konkrete, von T.Ord et al. beschriebene TMC-Modell durchaus verbessert werden kann.

    zu #157 15. Dezember 2010, 18:11:
    Vielen Dank für die Ausführungen, hier nur als Zwischenantwort – ich versuche bis Freitag zu antworten.

    Diesen Kommentar: Zitieren
  10. #160 | Quentin | 15. Dezember 2010, 21:50

    Uebbing, Sie wiederholen nur den längst abgehakten Bullshit und legen ein erstaunliches Maß an Unwissenheit bezüglich der naturwissenschaftlichen Methodik insgesamt an den Tag.

    Deshalb jetzt mal eine andere Frage: Sind Sie wirklich nur doof oder wollen Sie uns hier verarschen?

    Diesen Kommentar: Zitieren
  11. #161 | Quentin | 15. Dezember 2010, 21:52

    Ahja, und auf eine Antwort auf meine Frage warte ich immer noch, Herr Uebbing!

    Diesen Kommentar: Zitieren
  12. #162 | Rudolf Uebbing | 16. Dezember 2010, 00:59

    Ein paar Gedanken zum
    Verlässlichkeitsgrad einer Theorie – diskutiert an einem
    simplifizierten Beispiel:

    Nehmen wir etwas sehr einfaches zur Verdeutlichung –
    man stelle sich vor, eine Theorie schlussfolgert
    aus zwei Aussagen A und B,
    wenn der Fall ihrer gleichzeitigen Gültigkeit eintritt,
    eine Konsequenz, sagen
    wir die Aussage C. Das sei bereits der vollständige Inhalt
    dieser angedachten Theorie. Sie sei auch schon oft
    getestet, so dass sie als glaubwürdig erscheint.

    Jetzt werde diese Theorie einmal untersucht mittels einer
    gründlichen Metaanalyse auf ihren Verlässlichkeitsgrad,
    dadurch, dass man nämlich sämtliche zugehörigen Details
    bis hinein in die kleinsten Verzweigungen prüft.

    Dabei stellt sich heraus, die Aussagen A und B sind
    selbst nicht ideal perfekt, sondern haben jeweils
    eine Wahrscheinlichkeit A1 und B1 (Werte zwischen Null und Eins –
    damit es spannend wird, sagen wir mal knapp unter 1).

    Nach außen sehen die Sachverhalte A und B so aus
    als seien sie wirklich A und B,
    aber ein verdecktes, entscheidendes Merkmal tritt
    in seltenen Fällen hinzu.

    Dann besitzt im Falle der Abhängigkeit
    von A und B die Aussage C tatsächlich die Wahrscheinlichkeit
    C1=A1 * B1.

    Demnach existieren Anwendungsfälle, wo der
    Theoretiker, der die Theorie anwendet,
    auf seiner gerade aktuellen Erkenntnisstufe
    nur v e r m e i n t A wäre richtig und B wäre zugleich
    auch richtig – in diesem Falle vermeint er, auch C
    (= Prognosewert der Theorie) wäre richtig.
    Die Theorie hat also den Flüchtigkeitsfehler,
    A und B, wenn es nur den Anschein hat, immer
    als richtig anzunehmen.

    Das heisst in 100 Fällen der Anwendung
    dieser Theorie wird sie 100 * C1 mal zutreffen,
    bzw. ihr Verlässlichkeitsgrad beträgt dann tatsächlich
    nur 100 * C1 Prozent.
    (Hier versuche ich also den Verlässlichkeitsgrad
    einer Theorie anhand
    der Zahl der zutreffenden Fälle verglichen mit der
    Zahl der Theorie-Anwendungsfälle zu definieren.)

    Gemäß der Quantenphysik z.B. hält sich ein Teilchen
    in einem Längenintervall einer der drei Raumdimensionen nur mit
    einer begrenzten Wahrscheinlichkeit auf – wählt man
    das Intervall groß und größer, nähert man sich
    dem Wahrscheinlichkeitswert 1 ohne ihn exakt zu erreichen.
    Mit anderen Worten, eine physikalische Aussage, in
    der bereits nur ein Teilchen mit Gegenstand der Aussage ist,
    kann nicht einfach einen perfekten Zuverlässigkeitsgrad
    besitzen,

    Diesen Gedanken hier zu einer Theorie über Theorien weiter
    auszubauen, haben Wissenschaftstheoretiker sicherlich schon lange
    aufgegriffen, dazu ist er einfach zu simpel. Ich sehe bei
    T.Ord et al. interessante, in etwa dem entsprechende Ansätze; man wird
    schon bereits sehr gute, andere ausgefeilte Facharbeiten auf diesem
    Gebiet aufspüren können, denke ich.

    Im Zeitalter der automatisierten
    Datenverarbeitung wird die Theoretische Physik sicherlich
    irgendwann auch einmal für die Generierung ihrer Theorien von einer Maschinenunterstützung Gebrauch machen
    wollen – warum will man nicht jetzt schon damit konkret anfangen ?

    Nötiger als ein Teilchenbeschleuniger mit Urzeitkräften,
    welche hier in zwei Aspekten des LHC-Experimentes
    n i c h t der natürlichen Situation entsprechen,
    ist ein I d e e n b e s c h l e u n i g e r,
    mit dem es gelingt, die Theorievielfalt in der Theoretischen
    Physik einmal radikal zu durchforsten – d.h. eine Objektivierung, z.B.
    methodisch neu die Aussagekraft von Theorien zu quantifizieren, durchzuführen.

    Aus meiner Sicht hat die Physik die grundsätzlich neuen Möglichkeiten der Digitalisierung noch nicht für ihre kreativen Prozesse, der Theoriegewinnung,
    eigentlich für sich selbst also, zur Anwendung gebracht.

    Gerade die Physik würde sich für eine
    Forcierung der sog. Künstlichen Intelligenz eignen, wie ich meine.

    Die enorme Menge der dazu notwendigen Formalisierungsprozesse schreckt
    freilich ab. Dazu gehört sicherlich auch, logisch-elementare physikalische
    Aussageformen zu entdecken und zu definieren, die nicht weiter
    untergliedert werden können.

    Schlussfolgerung: Wir brauchen nicht nur eine Neue Physik dank
    Teilchenbeschleuniger, wir brauchen vorab eine m e t h o d i s c h
    revolutionierte Neue Physik, sh. die zurecht beklagte Theorievielfalt / Theoriewust.

    These: Es gibt keinen menschlichen neuen EINSTEIN mehr oder eine
    Forschergruppe, die insgesamt die Theoretische Physik überblickt.

    Diesen Kommentar: Zitieren
  13. #163 | Quentin | 16. Dezember 2010, 10:04

    Uebbing, was Sie hier offenbaren ist ein eklatanter Wissensmangel bezüglich der Methoden der Physik, der Naturwissenschaft allgemein. Sie meinen tatsächlich, so etwas wie Statistik etc wäre in der Wissenschaft noch nicht angekommen. Ganz zu schweigen davon, daß sie offenbar nicht den Hauch eines Verständnisses der Physik als experimentelle Wissenschaft besitzen. Sie bemerken nicht einmal, daß noch ausgedehnteres Theoretisieren als es bisher schon passiert ein Experiment wie den LHC eher noch notwendiger macht. Eine Prüfung jeder Theorie, egal wie entstanden, ob am Schreibtisch oder im Supercomputer, braucht letztlich das Experiment. Und keine ihrer dämlichen Amtsstuben-Phantasien einer ‚Theorienormung‘ etc ist in der Lage, ein Experiment wie den LHC zu ersetzen. Oder ‚Überraschungen‘ auszuschließen. So ganz nebenbei kann man mit Hilfe Ihrer ‚Argumentation‘ die menschliche Gesellschaft und Wissenschaft in ihrer jetzigen Form gleich ganz abschaffen. Hätte die Menschheit immer nach der Uebbing Methode rein threotisch versucht, Naturgesetze usw zu erforschen, säßen wir heute noch in einer Höhle und hätten vermutlich nicht einmal das Rad erfunden. Und freies Denken wäre vermutlich auch von Übel.

    Nun denn, die Realität sieht so aus, daß wir 30 Jahre ‚Ideenbeschleunigung‘ hatten. Es ist jetzt Zeit, das Experiment reden zu lassen. Ihre Einwände sind komplett widerlegt und teilweise einfach nur von akutem Mangel an logischen Denken, mithin an Vernunft gekennzeichnet.

    Diesen Kommentar: Zitieren
  14. #164 | Rudolf Uebbing | 16. Dezember 2010, 12:41

    Erfolge der automatisierten Datenverarbeitung – erweiterbar:

    Als grundsätzlicher Technik- und Wissenschaftsfreund halte ich hier einmal einige Erfolge der automatisierten Datenverarbeitung parat, von welcher ich mir wünschte,
    Physiker würden sie auch beim kreativen Prozess der Theoriegewinnung
    forciert einsetzen. Diese Erfolge geben Anlass für einen Optimismus,
    dass in Zukunft die Theoretische Physik noch in einen weiteren, sensiblen
    Gebieten sich der Digitalisierung bedienen wird wollen.

    Beispiele (sicherlich nur ein winziger Ausschnitt):

    a) Die programmtechnische funktionale Abbildung der Hörprozesse, z.B. bei
    der Spracherkennung.

    b) Die automatisierte visuelle Bearbeitung der Daten aus virtuellen
    Räumen

    c) Die praktische Umsetzung dieser automatisierten Wahrnehmungsfähigkeiten
    beim Bau selbständig fahrender Automobile, die derzeit in Entwicklung
    sind und erprobt werden.

    d) Die enormen mathematisch orientierten Simulationsprozesse zur
    Abbildung der physikalischen Realität in den Physikinstituten oder anderen Forschungseinrichtungen

    Dies und mehr lässt durchaus hoffen, dass auch bei den schöpferischen
    Erkenntnisprozessen, wie bei der Theoriegewinnung, demnächst erste
    Schritte getätigt werden. Eine vermehrte Zusammenarbeit zwischen Physik und
    Informatik und anderen Disziplinen wäre hier wünschenswert.

    Diesen Kommentar: Zitieren
  15. #165 | Quentin | 16. Dezember 2010, 13:36

    Also wirklich, Herr Uebbing, nachdem was Sie hier geäußert haben sind Sie weder ein Wissenschaftsfreund noch ein Wissenschaftskenner.

    Ihre Beiträge lassen ein tiefsitzendes Wissensdefizit bezüglich der Arbeitsweise der modernen Wissenschaft erkennen. Ihre letzten Texte sind noch mehr als die vorherigen eine einzige Ansammlung von leeren Phrasen, die auch wirklich nur in Ihren Ohren irgendwie intelligent klingen dürften. Diese merkwürdigen Vorstellungen, man könne die Natur auch ganz ohne Experiment durch besonders tiefes Nachdenken verstehen oder theoretisch beschreiben, sind realitätsfern, schaffen im Endeffekt jede Form von Naturwissenschaft ab und führen direkt zurück in die Steinzeit. Grundlegende Fragen der Wissenschaft, aber auch Lösungen für drängende (Umwelt-)Probleme können auf diese Weise nicht bearbeitet bzw gefunden werden, da Sie konsequenterweise Ihre ‚Argumentation‘ nicht auf Teilchenphysik beschränken können. Die Ihnen vorschwebende, durch alleiniges Denken gewonnene ‚Supertheorie‘ gibt es in keiner Disziplin, und deshalb lauern überall potentielle Weltuntergänge.

    Uebbing, Sie können alle Rechner der Welt hunderte Jahre an irgendeinem Modell rechnen lassen und werden am Ende immer noch auf Experimente wie LHC angewiesen sein. Und auch dann wird es immer noch Überraschungen geben. Ihre ganzen Einlassungen sind damit vollends gegenstandslos. Da Ihnen das jetzt mehrfach erklärt wurde, wiederhole ich meine Frage an Sie: Sind Sie einfach nur zu doof, die Schwächen Ihres ‚Arguments‘ zu erkennen oder wollen Sie uns hier bewusst verarschen und einfach nur Ihre Propaganda posten?

    Diesen Kommentar: Zitieren
  16. #166 | Rudolf Uebbing | 16. Dezember 2010, 14:02

    Die zuletzt gestellte Frage – unpassend im Ton – hatte ich
    schon einmal an anderer Stelle auf AC unter Wahrung der üblichen
    Höflichkeit beantwortet.

    Zu „Und auch dann wird es immer noch Überraschungen geben.“ :
    Dieser Satz steht in keinerlei Widerspruch zu meinen Ausführungen
    (ich hatte davon gesprochen, das Moment der möglichen Überraschungen
    zu „minimieren“ – vielleicht bitte nochmal nachlesen.).

    Bitte, keine künstlichen Widersprüche oder Meinungsverschiedenheiten aufbauen, sondern graduelle Unterschiede möglichst quantifizieren, wäre meine Antwort.

    Diesen Kommentar: Zitieren
  17. #167 | Quentin | 16. Dezember 2010, 14:08

    Was ist so schlimm an Überraschungen, daß Sie ‚minimiert‘ werden müssen? Und wenn man sie sowieso nicht vermeiden kann, was soll Ihr ganzer oben ausgebreiteter Blödsinn dann überhaupt?

    Alleine aufgrund letzter Fragestellung ist meine zugestpitzte Frage an Sie rational begründet.

    Diesen Kommentar: Zitieren
  18. #168 | Rudolf Uebbing | 16. Dezember 2010, 14:09

    Zum Thema TMC-Modell nach T.Ord et al. – Berichtigung:

    Das TMC-Modell von T.Ord et al.
    ist nach Einschätzung eines Diplom-Mathematikers
    nicht „wohl falsch“, wie ich es von ihm fälschlich interpretiert
    habe, sondern „unbrauchbar“.

    Dazu darf ich unten folgenden Absatz aus der
    der o.g. Einschätzung zitieren.

    Ich bitte darum, meine Über- oder Falschinterpretation zu
    entschuldigen.

    (Meiner Sicht nach ist die Brauchbarkeit des TMC-Modelles
    auch bestimmt von der künftigen Automatisierbarkeit
    dieser analytischen Prozesse; gerade Physik als logikgeprägter
    Analysevorgang sollte für die Zwecke einer Automatisierbarkeit,
    im Gegensatz z.B. zu Philosophie, von vornherein besonders
    geeignet sein – ich erlaube mir daher Optimismus.)

    Zitat – Herr Kannenberg begründete fazitmäßig unter anderem:
    „Eine Nachfolgearbeit könnte zwar versuchen, das TMC-Modell auf den
    zweiten Summanden anzuwenden, d.h. die entsprechenden Wahrscheinlichkeiten
    umzurechnen, doch liefert das aufgrund der Mathematik sehr komplizierte und
    unanschauliche Ausdrücke, die man leider nicht abschätzen kann. Hier bräuchte man also
    ein Modell, welches die beiden Terme des unerwarteten Risikos B1 und B2 besser
    abzuschätzen vermag. TMC leider kann das nicht.“

    Diesen Kommentar: Zitieren
  19. #169 | Rudolf Uebbing | 16. Dezember 2010, 14:25

    Zu #167 16. Dezember 2010, 14:08:

    Da Risiken prinzipiell nicht restlos zu vermeiden sind,
    bleibt nur übrig, sie sinnvoll unter Beachtung eines
    zu unterschreitenden Grenzrisikos zu m i n i m i e r e n.

    Eine Maßnahme dazu ist, Theorien derzeit und stets
    im Falle der HEP-Experimente so weit
    weiterzuentwickeln, dass sie bei kritischen Versuchen
    stets den letzten Stand der Beobachtungssachverhalte
    im Rahmen der Messgenauigkeit wiedergeben können.

    Frage:
    Sind die letzten beiden von mir beschriebenen
    Auffälligkeiten der aktuellen LHC-Beobachtungsresultate,
    die nicht so recht zur physikalischen Prognose
    passend gewesen sind, mittlerweile durch
    die fortentwickelte Theorie im Rahmen der Messgenauigkeit
    darstellbar gemacht worden ?

    (Oder nimmt man die nächstmögliche Überraschung
    einfach nach weiterer energetischer Kollisionserhöhung – dermaßen
    unvorbereitet, mithin ohne Theorieverbesserung – in Kauf ?)

    Mein Vorschlag zur Risikominimierung ist nur einer von einigen – ein anderer,
    sicherlich besserer Vorschlag, rührt von einem Astrophysiker.

    Diesen Kommentar: Zitieren
  20. #170 | Quentin | 16. Dezember 2010, 14:36

    Wie wollen Sie etwas minimieren, das Sie gar nicht kennen? ‚Überraschungen‘ minimieren widerspricht schon rein formal der Definition der ‚Überraschung‘. Eine ‚Überraschung‘ ist doch deshalb ‚überraschend‘, weil sie so nicht erwartet wurde. Ob eine Theorie ausreichend ‚verbessert‘ wurde, wissen Sie erst nach dem Experiment. Und da kann es ‚Überraschungen‘ geben. Immer. Überall. In jeder Disziplin, nicht nur der Teilchenphysik.

    Sehen Sie eigentlich nicht, was Sie für einen Blödsinn zusammenschustern? Jede Theorie kann sich jederzeit in einem neuen Experiment als unzureichend herausstellen.

    So langsam beantwortet sich meine Frage übrigens von selbst.

    Diesen Kommentar: Zitieren
  21. #171 | Rudolf Uebbing | 16. Dezember 2010, 15:03

    Ich darf einfach dagegen halten – ohne unbedingt Positivist sein
    zu wollen – dass jedes Tun, welches m e h r Klarheit zu
    einer gegebenen, bereits festgestellten Situation verschafft,
    das Maß an Schutz – auch vor unangenehmen
    Überraschungen – erhöhen kann oder wird.

    Man betrachte den Vorschlag zu einer
    ständig aktuellen Theoriefortschreibung sinngemäß als eine
    Vorstufe von „Gefahr erkannt – Gefahr gebannt“.

    Diesen Kommentar: Zitieren
  22. #172 | Hansi | 16. Dezember 2010, 16:06

    übbing wrote:
    Sind die letzten beiden von mir beschriebenen
    Auffälligkeiten der aktuellen LHC-Beobachtungsresultate,
    die nicht so recht zur physikalischen Prognose
    passend gewesen sind, mittlerweile durch
    die fortentwickelte Theorie im Rahmen der Messgenauigkeit
    darstellbar gemacht worden ?
    end quote.

    Das dauert immer rund 1-2 oder mehr Jahre.

    Immerhin muss eine neue Programmversion des Simulationsprogramms geschrieben werden.

    Microsoft Windows oder Office kommt auch nicht jede Woche neu raus.

    Das ändert aber nichts daran, dass die QCD absolut sicher ist.

    Diesen Kommentar: Zitieren
  23. #173 | achtphasen | 16. Dezember 2010, 17:10

    @ ‚Benni/Hansi‘

    Das ändert aber nichts daran, dass die QCD absolut sicher ist.

    Warum denn sollten überhaupt noch Experimente durchgeführt werden, wenn sogar dazu Gewissheit bestünde, dass die QCD absolut sicher sei?

    Ich möchte meine an Sie (als ‚Hansi‘) bereits am 3. Dezember gerichtete Frage hier wiederholen, weil diese in der ganzen Aufgeregtheit in Vergessenheit geraten ist:

    Was bitte ist Masse? Was verleiht der Materie Gewicht? Ist Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint) – oder kommt die Masse doch eher vom Higgs-Boson, wie am CERN offenbar geglaubt wird? Oder ist das Higgs-Boson nun ein Wirbel einem Feld in der Raumzeit?
    Oder schlicht ein Wirbel in der Raumzeit? Oder haben vielleicht beide, der Herr Higgs und der Herr Wilcek, Recht?

    ( http://www.achtphasen.net/index.php/2010/08/24/foucault_sche_pendelbewegung#c5102 )

    ich freue mich auf ‚Hansi/Bennii’s Antwort!

    Diesen Kommentar: Zitieren
  24. #174 | Quentin | 16. Dezember 2010, 17:22

    Ich darf einfach dagegen halten – ohne unbedingt Positivist sein
    zu wollen – dass jedes Tun, welches m e h r Klarheit zu
    einer gegebenen, bereits festgestellten Situation verschafft,
    das Maß an Schutz – auch vor unangenehmen
    Überraschungen – erhöhen kann oder wird.

    Das Problem ist, daß Ihre ‚Vorschläge‘ nicht mehr Klarheit bringen können. Prinzipiell nicht. Ohne Experiment können Sie keine Theorie bewerten. Und Sie erhalten auch keine verlässlicheren Aussagen über die Natur, wenn Sie den Aufwand in der theoretischen Forschung bis ins Unendliche aufblasen.

    Ich stelle mir mittlerweile nur noch die Frage, wieso diese doch eigentlich sehr einfache Erkenntnis nicht in Ihren Kopf geht. Kleben Sie etwa so sehr an Ihrem vermeintlich letzten Strohhalm, daß jede Form logischen Denkens vollends abgeschaltet wurde?

    Diesen Kommentar: Zitieren
  25. #175 | Quentin | 16. Dezember 2010, 17:28

    Warum denn sollten überhaupt noch Experimente durchgeführt werden, wenn sogar dazu Gewissheit bestünde, dass die QCD absolut sicher sei?

    Dumm wie von Ihnen gewohnt, achtphasen. Vor lauter rösslerund selbstinduzierter Denkunfähigkeit bemerken Sie schon nicht mehr, daß es nicht das primäre Ziel von Forschung ist, die Sicherheit von diesem oder jenem nachzuweisen, sondern mehr über bestimmte Zusammenhänge an sich herauszufinden. ‚Was die Welt zusammenhält‘ zu erforschen.

    Diesen Kommentar: Zitieren
  26. #176 | Hansi | 16. Dezember 2010, 17:38

    achtphasen wrote:
    Warum denn sollten überhaupt noch Experimente durchgeführt werden, wenn sogar dazu Gewissheit bestünde, dass die QCD absolut sicher sei?
    end quote.

    Experimente kann man sogar nur dann machen, wenn man weiss, das eine Theorie absolut sicher ist.

    Das aus den Grundgleichungen der QCD folgt, dass sie sicher ist, heisst wie gesagt nicht, dass man für jede experimentelle Situation bis auf unendliche Stellen hinter dem Komma die Messwerte genau im Computer berechnen kann. Genau für solche Präzisionsmessungen interessiert man sich aber hier

    achtphasen wrote:
    Was bitte ist Masse? Was verleiht der Materie Gewicht? Ist Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint)
    end quote.

    Was Masse ist finden sie sogar in der Wikipedia.

    http://de.wikipedia.org/wiki/Masse_%28Physik%29#Ursprung_der_Massen_der_Elementarteilchen

    Wie sie erzeugt wird finden sie hier:

    http://de.wikipedia.org/wiki/Higgs-Mechanismus

    achtphasen wrote:
    Ist Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint) – oder kommt die Masse doch eher vom Higgs-Boson, wie am CERN offenbar geglaubt wird? Oder ist das Higgs-Boson nun ein Wirbel einem Feld in der Raumzeit?
    end quote.

    Das was sie hier schreiben hat alles keinen Bezug zu den echten physikalischen Gleichungen.

    Physikalisch ist die Sache klar. Es würde ihnen nichts bringen, wenn ich jetzt von Massematrizen, Kopplungskonstanten, Lageragedichten reden würde.

    Speziell sollten sie, achtphasen, sätze wie:

    achtphasen wrote
    Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint)
    end quote.

    ganz schnell vergessen, denn diese haben nichts mit den konkreten Gleichungen zu tun.

    Wenn Wilcek wirklich solchen Unsinn gesagt hat, (bitte Quellenangabe), dann brauchte er wahrscheinlich Geld welches er durch irgend ein Zeitungsinverview oder einen Artikel für die Laienpresse reinholen wollte.

    Physikalisch ist klar, wie Masseterme in das Standardmodell kommen können. Nur dass man eben 4 Alternativen hat, die ziemlich gleichwertig sind und man sie nacheinander prüfen muss.

    Die Auswirkungen von Massetermen für Interaktionen und für die Raumzeit sind ebenfalls klar und auch schon längst experimentell geklärt.

    Eine Gefährlichkeit des LHC folgt aus alledem nicht.

    Diesen Kommentar: Zitieren
  27. #177 | Rudolf Uebbing | 16. Dezember 2010, 19:39

    Wo finde ich, bitte, die öffentliche Antwort auf das Dokument
    arXiv:0808.1415v3.pdf v. 9.8.2009 ?

    Diesen Kommentar: Zitieren
  28. #178 | galileo2609 | 16. Dezember 2010, 20:43

    Hallo Herr Uebbing,

    ich schlage vor, sie fragen das Rainer Plaga und teilen uns danach seine Antwort mit.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  29. #179 | achtphasen | 17. Dezember 2010, 13:48

    Hansi hat geantwortet:

    Was Masse ist finden sie sogar in der Wikipedia.

    http://de.wikipedia.org/wiki/Masse_%28Physik%29#Ursprung_der_Massen_der_Elementarteilchen

    Wie sie erzeugt wird finden sie hier:

    http://de.wikipedia.org/wiki/Higgs-Mechanismus

    Und weiter hat ‚Hansi‘ geschrieben:

    Das was sie hier schreiben hat alles keinen Bezug zu den echten physikalischen Gleichungen.

    Physikalisch ist die Sache klar. Es würde ihnen nichts bringen, wenn ich jetzt von Massematrizen, Kopplungskonstanten, Lageragedichten reden würde.

    Speziell sollten sie, achtphasen, sätze wie:

    achtphasen wrote
    Masse ein Wirbel in der Raumzeit (wie es Wilcek zu wissen meint)
    end quote.

    ganz schnell vergessen, denn diese haben nichts mit den konkreten Gleichungen zu tun.

    Hier muss ich ‚Hansi‘ auf die Selbstverständlichkeit aufmerksam machen, dass auch im Jahr 2010 noch immer die Realität der Prüfstein für die Theorie (konkrete Gleichungen) ist.

    Hansi bringt in Diskussion mit Herrn Rössler repeditiv ein, dass Rösslers ‚TeLeMaCh‘ Blödsinn sein müsse, weil konkreten Gleichungen widersprechend
    (Schutz 2.33 und damit verbunden auch anderen Gleichungen | http://www.achtphasen.net/index.php/plasmaether/2010/12/09/das_gewicht_des_urkilogramms#c5148 )

    Für ‚Benni/Hansi‘ ist

    (physikalisch) klar, wie Masseterme in das Standardmodell kommen können.

    Dass ‚Hansi/Benni‘ ein beeindruckend grosses Wissen um die Formeln des Standardmodelles hat, das ist allen Lesern klar.

    Weniger klar ist, ob das, was Wilcek sagt, wirklich solch Unsinn ist, wie ‚Hansi/Benni‘ zu wissen glaubt:

    Wenn Wilcek wirklich solchen Unsinn gesagt hat, (bitte Quellenangabe), dann brauchte er wahrscheinlich Geld welches er durch irgend ein Zeitungsinverview oder einen Artikel für die Laienpresse reinholen wollte.

    Das Rätsel, was denn Masse ist, ist nicht ’nur‘ für Wilcek eine offene Frage, die er eben mit der Vermutung beantwortet, es handle sich bei Masse um Wirbel in der Raumzeit
    (Quelle: Sequenz in dem hier wohl nicht so genehmen Sancho-Video, (Minutenangabe folgt später)),
    sondern nebst Wilcek sagt auch Rujula das Gleiche und zwar in einem CERN-PR-Video (den ich mich also traue hier zu verlinken):

    The vacuum is a substance and, like any other substance, you can make it vibrate, and the vibrations of the vacuum are called ‚higgs-particles‘ and that is the object, we are most trying to find at the LHC. The higgs-particle is essential to theoretical physics because it’s different from any other we have discovered so far. It is the one responsible for the masses of all other particles.
    http://www.youtube.com/watch?v=sldST8jP9jQ bei Minute 6′28′’

    Diesen Kommentar: Zitieren
  30. #180 | Redaktion | 17. Dezember 2010, 14:02

    (Quelle: Sequenz in dem hier wohl nicht so genehmen Sancho-Video, (Minutenangabe folgt später)),

    Den Link bitte!

    Im Zitat steht übrigens nichts von Wirbeln. Sie biegen sich wieder einmal lediglich eine populäre Erklärung so zurecht, dass sie in Ihr esoterisches Weltbild voller Wirbel und Schwingungen und sonstigem Blödsinn passt.

    Diesen Kommentar: Zitieren
  31. #181 | Hansi | 17. Dezember 2010, 16:04

    achtphasen wrote:
    zitat wilcek:
    The vacuum is a substance and, like any other substance, you can make it vibrate, and the vibrations of the vacuum are called ‘higgs-particles’ and that is the object, we are most trying to find at the LHC. The higgs-particle is essential to theoretical physics because it’s different from any other we have discovered so far. It is the one responsible for the masses of all other particles.
    end quote.

    Das obige Wilcek zitat ist, wenn auch schwammig, korrekt. Was Wilcek als „vibrationen“ bezeichnet, sind aber keine „Wirbel“ sondern die Moden im Feldoperator eines Quantenfelds:

    http://de.wikipedia.org/wiki/Quantenfeldtheorie#Kanonischer_Formalismus

    Das hat mit „Wirbeln“ nichts zu tun, sondern mit Forieranalyse.

    Allerdings muss man zum Wilcek Zitat erwähnen, dass es zum Higgs Mechanismus ca. 4 Alternativen gibt.

    Und der LHC soll nun im Experiment prüfen, welche von den 4 Alternativen zutrifft.

    Von den Gleichungen her ist die Sache mit der Masseerzeugung aber dennoch klar, denn die Mechanismen, welche die Massematrix in den verschiedenen alternativmodellen erzeugen sind alle sehr sehr ähnlich.

    Es würde aber hier nichts bringen, wenn ich auf die genauen Unterschiede der Modelle wie Technicolor, Little-Higgs, Supersymmetrie und den Higgs Mechanismus im gewöhnlichen Standardmodell eingehe.

    Diesen Kommentar: Zitieren
  32. #182 | Redaktion | 17. Dezember 2010, 16:09

    Das ist kein Zitat von Wilcek.

    Diesen Kommentar: Zitieren
  33. #183 | achtphasen | 17. Dezember 2010, 16:22

    Redaktion hat recht, das ist kein Zitat von Wilczek.

    Diesen Kommentar: Zitieren
  34. #184 | Redaktion | 17. Dezember 2010, 16:30

    @achtphasen: Wo bleibt der Link?

    Diesen Kommentar: Zitieren
  35. #185 | achtphasen | 17. Dezember 2010, 16:48

    Der Link kommt dann schon noch, nur Geduld. Warte auf eine Antwort – mag nicht das gesamte Film-Oeuvre durchsuchen.

    Diesen Kommentar: Zitieren
  36. #186 | galileo2609 | 17. Dezember 2010, 16:55

    Hallo achtphasen,

    #179 | achtphasen | 17. Dezember 2010, 13:48
    (Quelle: Sequenz in dem hier wohl nicht so genehmen Sancho-Video, (Minutenangabe folgt später))

    Luis Sancho ist ein völlig durchgeknallter Spinner. Da haben sie schon recht, dass dieses Individuum von normalen Leuten nicht besonders geschätzt wird. Bei ihnen ist das anders, sie haben nicht nur ein Ohr für Sancho, sie stellen ihm auch Raum für seine absurden Halluzinationen und Verschwörungstheorien bereit. Es würde mich nicht wundern, wenn sie Sanchos Perversionen zu ihren eigenen machen würden.

    Das entbindet sie nicht von der Pflicht, ihre Aussage zu Wilczek zu belegen. Und zwar pronto!

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  37. #187 | galileo2609 | 17. Dezember 2010, 17:04

    Nachtrag:

    Der Link kommt dann schon noch, nur Geduld. Warte auf eine Antwort – mag nicht das gesamte Film-Oeuvre durchsuchen.

    Bei wem müssen sie denn nachfragen, achtphasen? Sie erwarten Geduld dafür, eine Quelle anzugeben? Wie lächerlich ist das denn?

    galileo2609

    Diesen Kommentar: Zitieren
  38. #188 | achtphasen | 17. Dezember 2010, 17:12

    Gut gebrüllt, galileo!

    Das entbindet sie nicht von der Pflicht, ihre Aussage zu Wilcek zu belegen. Und zwar pronto!

    galileo gefällt sich mal wieder in der Rolle des Hausherren – es wird per Imperativ kommuniziert.

    Dennoch: Wilczek schreibt man mit z, ich bedauere meinen Flüchtigkeitsfehler. Dass dieser Fehler hier nun multipliziert wird, dass hat Herr Wilczek nicht verdient.

    Sie erwarten Geduld dafür, eine Quelle anzugeben? Wie lächerlich ist das denn?

    Ich habe die Filmsequenz ’nur‘ einmal gesehen – aber bezeichnend ist, mit welcher Ueberzeugung Frank Wilczek diese Aussage gemacht hat.

    Wie gesagt habe ich keine Lust mir nun alle möglichen Streifen durchzusuchen. Darum frage ich nach. Antwort kommt schon noch. Und falls ich keine Lust mehr habe auf dieser Websize dazu zu berichten, dann eben auf achtphasen.

    Wünsche heitere Abendstunden!

    Diesen Kommentar: Zitieren
  39. #189 | galileo2609 | 17. Dezember 2010, 17:16

    Sie sind faul, achtphasen. Und das passt nicht zu ihren haltlosen Behauptungen. Also, machen sie sich an die Arbeit.

    Diesen Kommentar: Zitieren
  40. #190 | Redaktion | 17. Dezember 2010, 17:25

    Da befürchtet jemand den Weltuntergang, ist aber zu faul eine Quelle zu suchen.

    Irgendwie passt das doch alles nicht zusammen, achtphasen. Nicht wahr?

    Diesen Kommentar: Zitieren
  41. #191 | achtphasen | 17. Dezember 2010, 17:48

    hihi …

    ich lieferet so viel an Material, dass seit vielen Monaten mindestens 50% der hier auf dieser wissenschaftlichen Website diskutierten Themata Bezug zu Material haben , das ich auf auf achtphasen publiziere…;
    und werde von ‚Redaktion‘ als

    zu faul eine Quelle zu suchen

    bezeichnet.

    Der CERN hat Winterpause. Es ist Adventszeit. Sie erhalten die Quelle schon noch.

    Diesen Kommentar: Zitieren
  42. #192 | Redaktion | 17. Dezember 2010, 18:00

    Haben Sie wieder zuviel getrunken oder geraucht? Oder wie kommen Sie sonst auf diese absurde Zahl?

    Das Herumdrucksen der LHC-Kritiker wenn es um Quellen geht ist langsam nur noch peinlich. Es passt nicht zur angeblichen „Besorgnis“. Und damit sind wir wieder bei ihrer Wunschvorstellung, 50% dieses Blogs würden sich mit irgendwie auf sie beziehen – wie immer nehmen sie sich zu wichtig. 😀

    Diesen Kommentar: Zitieren
  43. #193 | Missionman | 17. Dezember 2010, 18:02

    Sie sind faul, achtphasen.

    Das ist ja nun nichts neues. Lebt Seit fast 50 Jahren vom Geld anderer Leute, leistet keinen Beitrag zur Gesellschaft und ist ausgeprägt selbstgefällig.

    Noch wichtiger aber: er lernt eifrig von seinem Führer! Rössler zeigt doch gerade auf Fasnacht’s Schmuddelseite, dass er selbst von Arbeit nichts hält. Die Herleitung seiner abstrusen Drogenträume sei doch einfach, nur er selber will es seit über zwei Jahren nicht leisten.

    Also eines muss ich Fasnacht zuestehen: er lernt wirklich noch was – wenn auch das falsche!

    Greeting from NY
    MM

    Diesen Kommentar: Zitieren
  44. #194 | galileo2609 | 17. Dezember 2010, 19:27

    Hallo achtphasen,

    #191 | achtphasen | 17. Dezember 2010, 17:48
    Sie erhalten die Quelle schon noch.

    es ist schon klar, dass in ihrem Milieu Referenzen nicht besonders wichtig sind. Da reicht auch eine Einbildung, eine Selbsterfahrung oder ein rauschhaft bedingtes Erlebnis.

    Wenn sie ernstgenommen werden wollen, gilt es, auch ein indirektes Zitat konkret zu belegen. Sie sollten bei ihrer Anfrage an den Spinner Sancho auch nicht vergessen, nach dessen Quelle zu fragen. Sonst wird das nichts.

    Dass sie mit einem so durchgeknallten Fanatiker allerdings Kommunikation pflegen, ist wirklich erschreckend. Aber in ihrem Milieu offenbar normal. Auch Otto E. Rössler hält ja grosse Stücke auf diesen abgedrehten Extremisten:

    Otto E. Rössler auf achtphasen.net, 2010-11-15 | 17:51
    der derzeit schärfste physikalische Denker Luis Sancho

    Ihre ehrenwerte Gesellschaft kennt wirklich überhaupt keine Anstandsgrenzen, wenn es um die Selbstinszenierung geht.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  45. #195 | Rudolf Uebbing | 18. Dezember 2010, 14:41

    Ein paar Gedanken zu der oben nachlesbaren Aussage,
    die QCD ( der Quantenchromodynamik, der
    Lehre von den Farbkräften als Kernkräfte etc.)
    ist „absolut sicher“.

    Vielen Dank zunächst für die wirklich informativen,
    fachlichen Aussagen im Beitrag
    #172 16. Dezember 2010, 16:06 !
    Ich möchte die Aussagen aus dem Beitrag nicht in ihr
    Gegenteil verkehren, sie sprechen jedoch für sich selbst.

    Einige Worte zu der Formulierung
    „Das ändert aber nichts daran,
    dass die QCD absolut sicher ist.“
    seien jedoch gestattet.

    Nun, die Progronoseschwächen, die Lattice-QCD,
    ein Rechenhilfsmittel basierend auf der QCD,
    offenbart hat, wurden im Detail beschrieben (physikalische
    Parameter, die um einen beachtlichen Faktor,
    nämlich m e h r als eine Größenordnung
    von der beobachteten physikalischen
    Realität differierten). – Ein besseres Hilfsmittel
    als Lattice-QCD stand offenbar nicht zur Verfügung resp.
    wäre zu zeitaufwendig gewesen, was zugleich auch eine Aussage
    zur Prognosefähigkeit der Theoretischen Physik
    in einem bestimmten Bereich darstellen mag.

    Da Quantentheorie und Relativitätstheorie
    in einigen Bereichen untereinander widersprüchlich
    sind und die QCD (Quantenchromodynamik) als Teil einer
    umfassenden Quantentheorie gilt, muss man eher formulieren dürfen:
    Die QCD (und auch die ART) steht durchaus auf dem Prüfstand neuer Experimente und Beobachtungen, denn beide Theorien
    können nicht überall gleichzeitig mit letztendlich abschliessender
    Präzision gültig sein.

    Was ist mit einer Aussage z.B., dass auch
    gut statt drei vier Farbkräfte denkbar sind, wie
    bereits alternative Simulationsrechnungen ergaben?
    Wie sicher sind dann noch die Aussagen der derzeitigen
    QCD wirklich ?

    Wieso fällt hier dann eine Formulierung wie
    die QCD sei „absolut sicher“ ?

    Meint diese Formulierung

    a) aus der QCD lassen sich keine
    potentiell gefährlichen exotischen Teilchen etc.
    ableiten

    oder meint sie

    b) die fachlichen Aussagen,
    die die QCD ausmachen, wären sicher
    (dann wäre jedoch die weitere Erforschung der
    QCD evtl. nicht sinnvoll zweckorientiert ?).

    Schlussfolgerung – aus meiner Sicht darf
    vielleicht zutreffender formuliert werden:
    „Die QCD ist bedingt sicher, so dass sie prüfungswürdig
    ist.“

    Die detaillierten Bedingungen sind jedoch für eine objektive
    Beurteilung entscheidend.

    Diesen Kommentar: Zitieren
  46. #196 | Hansi | 18. Dezember 2010, 21:07

    übbing wrote:

    Wieso fällt hier dann eine Formulierung wie
    die QCD sei “absolut sicher” ?

    Meint diese Formulierung

    a) aus der QCD lassen sich keine
    potentiell gefährlichen exotischen Teilchen etc.
    ableiten
    end quote.

    Genau dies meinte ich. Zusätzlich war folgendes gemeint:

    Es können durch die QCD selbst keine gefährlichen Prozesse bei Teilchencollidern entstehen und die QCD kann solche gefährlichen Prozesse aufgrund ihrer Eigenschaften nicht unterhalten.

    Übbing wrote:
    Was ist mit einer Aussage z.B., dass auch
    gut statt drei vier Farbkräfte denkbar sind, wie
    bereits alternative Simulationsrechnungen ergaben?
    end quote

    Nein, eine solche Aussage ist in der QCD nicht enthalten und kann auch nicht aus ihr folgen.

    Auch nicht aus einem Näherungsmodell, welches die QCD simuliert.

    Um zu behaupten, es gäbe zusätzliche Farbladungen, muss man die als zusätzliche Annahme zur QCD hinzufügen. Damit ändert man dann aber die Gleichungen der QCD grundlegend.

    Solche Modelle sind aus zwei Gründen problematisch:

    1) Im Bereich der QCD müsste man zunächst beweisen, dass die Erweiterung immernoch die bisher bekannten experimentellen Tests reproduziert

    2) Bisher reichte für jede Rechnung die normale QCD aus. Immer wenn es eine Diskprepanz zum Experiment gab, lag es an einem mangelhaften Näherungsmodell im Computer. Wurde das Näherungsmodell verbessert, kam stets heraus, dass die QCD die Natur ausreichend gut beschreibt.

    Es gibt also keinen Grund für Zusatzannahmen, wie etwa einer zusätzlichen Farbladung. Man muss sich zusätzlich klarmachen,
    dass eine solche Zusatzannahme auch eine erhebliche Änderung der QCD bedeuten würde. Immerhin müsste sich ihre Lageragedichte ändern, was in alle Rechnungen wo QCD Ergebnisse genutzt werden, einfließen würden müsste.

    Das Argument mit zusätzlichen Farbladungen ist ähnlich wie die Hypothese eines Ufos das morgen vor ihrer Tür auftauchen soll.

    Es kann sein, dass man die Hypothese, dass morgen ein Ufo vor ihrer Tür auftauchen soll physikalisch beschreiben kann, ohne dass das resultierende Modell inkonsistent mit bisherigen physikalischen Experimenten oder auch der Mathematik wäre.

    Bei einem Ufo, das morgen vor ihrer Tür auftaucht, können sie natürlich nicht sagen, ob sie morgen noch sicher sind.

    Aber niemand hat bisher etwas derartig abseitiges beobachtet. Daher gibt es keinen Grund, zu behaupten, morgen stünde ein Ufo vor ihrer Tür.

    Ähnlich verhält es sich mit angeblichen zusätzlichen Farladungen. Denn dies wäre eine erhebliche änderung der QCD. Immerhin müsste sich ihre Lageragedichte ändern, was in alle Rechnungen einfließen würde..

    Interessanterweise sind die Gleichungen der QCD nun auch noch so, dass selbst wenn man solche Hypothesen in diese Theorie einfügt, sich daraus keine Gefahr bei Colliderexperimenten ergeben würde.

    Diesen Kommentar: Zitieren
  47. #197 | Rudolf Uebbing | 18. Dezember 2010, 23:50

    Mit dem Beitrag #196 v. 18. Dezember 2010, 21:07, kann
    ich, was die Schlussfolgerungen betrifft, nicht übereinstimmen –
    ich begründe warum:

    Hier ist ergänzend erstens darauf hinzuweisen,
    dass die LHC-Sicherheit (rein auf Basis der Quantentheorien –
    nämlich keine potentiell gefährlichen exotischen Teilchen etc.)
    unter Hinzunahme eines weiteren Modelles (ADD-Modell)
    von den CERN-Wissenschaftler Giddings und Mangano
    auf theoretischer Grundlage als n i c h t ausreichend
    sicher nachweisbar angesehen wurde,
    so dass diese Wissenschaftler sich veranlasst sahen,
    ausdrücklich auf empirische, astronomische Sachverhalte Bezug zu nehmen,
    um eine Sicherheitsaussage machen zu können;
    dabei nannten sie jedoch leider einige der zugehörigen Zuverlässigkeitswerte
    (Signifikanzniveaus) nicht und werteten diese auch nicht aus.
    Der Versuch einer Quantifizierung unterblieb leider; weitere ausstehende
    Fragestellungen konnten nicht ins Blickfeld rücken.

    Tatsächlich galt für G&M:
    R e i n aus der Theorie heraus ist k e i n e ausreichende Sicherheit zu
    gewährleisten, deswegen musste ihrerseits auf die E m p i r i e
    zurückgegriffen werden.

    Leider diskutierten G&M zwecks Widerlegung leider dabei auch nicht
    eine um ca. 3 Jahre ältere publizierte Erkenntnis (peer reviewed, basierend
    auf einer speziellen astronomischen Datenbasis),
    dass nämlich im Jahr 2005 eine Risikoobergrenze
    zu einem j ä h r l i c h e n Risiko
    mit einem konkret bezifferten Wert u n g l e i c h Null
    für neue Collider-Technologie anzugeben war.

    Zweitens ist hier doch zusätzlich die Frage zu stellen,
    welches die spezielle Facharbeit ist,
    die nachweist – z.B. auf Basis der QCD -,
    dass durch bestimmte exotische Teilchen
    keine energetisch aktiven Umsetzprozesse mittels Neutroneneinfang
    ausgelöst werden; diese waren zuvor sehr wohl in der Diskussion.

    Drittens ist, wie ich meine, der Energiehaushalt resp. sind die
    Energie erzeugenden Prozesse in einigen Exoplaneten
    aufzuklären, deren Quellen für eine innere Hitzeerzeugung
    derzeit unbekannt sind.

    Diese definitiv astronomisch beobachteten Exoplaneten
    sind durchaus ein denkbarer Hinweis resp. Indizien dafür,
    dass ein sog. “Szenario 3″ tatsächlich, wenn auch
    vielleicht in einer anderen unerwarteten Weise, existieren mag.

    Damit ist definitiv der leise Zweifel, den es doch gilt,
    in j e d e m Fall zu widerlegen, durch die astronomisch
    dargestellte Realität in die Diskussion geraten.

    Festzuhalten ist:
    Dass LHC-Experiment erzeugt eine
    völlig andersartige Restimpulsverteilung der Kollisionsprodukte
    als wie im natürlichen Fall auf der Erde oder auf den Himmelskörpern
    durch die kosmische Strahlung zu erwarten ist.

    Der LHC eröffnet für die künstlichen Kollisionsprodukte
    andere Entwicklungs- und Reaktionspfade als die,
    die in der Natur vorfindbar sind,
    auch dadurch, dass suprafluide Stoffe sich in der Nähe aufhalten, in die
    die Kollisionsprodukte grundsätzlich hineingeraten können.

    Im wesentlichen sind es folgende zwei Unterschiede (zwischen Natur / LHC):

    a) der Ereignisraum ‘elastischer’ Stöße wird unnatürlich vergrößert,
    und zwar dadurch, dass kein relativistisch harter, vernichtender Folgestoß
    zwingend erfolgt.

    b) Keineswegs ist sicher, dass die kosmische Strahlung derart
    schwere, relativistisch schnelle Kerne wie Blei enthält.

    Die Natur macht k e i n e LHC-Experimente; die LHC-Experimente
    führen zu anderen Bedingungen, die erkennbar
    auf den Himmelskörpern, in der Natur n i c h t gegeben sein müssen.
    Deswegen kann das LSAG-Argument (Kosmische Strahlung) meinerseits
    nicht nachvollzogen werden.

    Der Konsens bei Giddings und Mangano war hingegen, dass für ihren
    Sicherheitsnachweis auf empirische Sachverhalte zurückgegriffen
    wurde – warum soll dieser Konsens im Falle der auffälligen Exoplaneten
    nicht mehr gelten ?

    Diesen Kommentar: Zitieren
  48. #198 | Redaktion | 19. Dezember 2010, 01:40

    @ Rudolf Uebbing

    Tatsächlich galt für G&M:
    R e i n aus der Theorie heraus ist k e i n e ausreichende Sicherheit zu
    gewährleisten, deswegen musste ihrerseits auf die E m p i r i e
    zurückgegriffen werden.

    Ihre Wertung ist falsch. LSAG arbeitete nach dem Imperativ „Even if“.

    Der weitere Inhalt Ihres Kommentars ist nicht tragfähig. Ebensowenig wie Ihre extrem wissenschaftsfernen Selbstgespräche der letzten Tage.

    Diesen Kommentar: Zitieren
  49. #199 | Hansi | 19. Dezember 2010, 03:08

    Übbing wrote:
    Hier ist ergänzend erstens darauf hinzuweisen,
    dass die LHC-Sicherheit (rein auf Basis der Quantentheorien –
    nämlich keine potentiell gefährlichen exotischen Teilchen etc.)
    unter Hinzunahme eines weiteren Modelles (ADD-Modell)
    von den CERN-Wissenschaftler Giddings und Mangano
    auf theoretischer Grundlage als n i c h t ausreichend
    sicher nachweisbar angesehen wurde,
    end quote.

    Das ADD Modell ist keine reine Quantentheorie. Das ADD Modell ist die Hypothese, dass grosse Extradimensionen existieren würden.

    Dies ist eine spekulative hypothese, welche abwegig ist, weil so etwas noch nie beobachtet wurde und auch nicht aus bekannten Gleichungen folgt. Tatsächlich ist das ADD Modell genau ein solches, wo eine Hypothese (grosse Extradimensionen) grundlos vorgeschlagen wird, und dann die Gleichungen geändert werden müssen.

    Das ist in etwa ein so wahrscheinliches Szenario wie die Hypothese von Ufos.

    Das die QCD eine sichere Theorie ist, folgt ganz einfach aus ihren Eigenschaften. Da Quarks nie isoliert vorkommen kann es nur passieren, dass die Quarks der kollidierenden Hadronen zunächst gemeinsam in ein Gas, ein heisses Quark Gluonen Plasma, übergehen.

    Dieser Zustand wird ermöglicht durch die Energie der kollidierenden Teilchen. Man hat damit zunächst quasi eine art gasförmigen Atomkern produziert.

    Der Witz an der QCD ist nun, dass, aufgrund der asymptotischen Freiheit der Theorie folgendes passiert:

    Sobald die Temperatur in dem Gas wieder zurückgeht, gruppieren sich die Quarks wieder zu den bereits bekannten langlebigen Hadronen des Standardmodells zurück.

    Das ganze ist anschaulich etwa wie das Kochen von Wasser in zwei Töpfen, welches in eine gemeinsame Dampfwolke aufgeht.

    Gäbe es eine art asymptotische Freiheit beim Wasser, würde der Dampf, wenn er wieder abkühlt sich automatisch in die selben Töpfe zurückgruppieren.

    Das Verhalten der QCD ist die prinzipiell kontrollierbarste Reaktion die denkbar ist.

    Es kann (ähnlich wie beim Verdampfen von Wasser) beim Quark Gluonen Plasma keine zusätzliche Energie frei werden. Zusätzlich kann nichts neues entstehen, da am Ende wieder die selben Ausgangsstoffe, nämlich die bereits bekannten und ungefährlichen Hadronen vorliegen müssen.

    Diesen Kommentar: Zitieren
  50. #200 | Rudolf Uebbing | 21. Dezember 2010, 00:18

    Ehe ich auf den Beitrag #199 v. 19. Dezember 2010, 03:08
    mit drei Einwänden antworte, möchte
    ich auf eine ältere Anfrage aus dem
    AC-Forum bzgl. ‚peer-reviewed‘ eingehen
    – dazu meine Überschrift bitte:

    peer-reviewed:
    Risikoobergrenze des LHC ungleich Null

    Der von der AC-Redaktion geäusserte Wunsch nach
    Angabe von Artikeln mit „peer review“-Merkmal
    wurde von mir bereits schon einmal positiv beantwortet
    (Nature 438, p.754 – wo in 2005 eine bezifferte Risikobergrenze
    ungleich Null zu einem jährlichen Risiko für
    neue Collider der Teilchenphysik beschrieben
    wurde.) –
    hier nunmehr im Folgenden die Nennung einer
    weiteren, mittlerweilen „peer-reviewed“,
    mithin ausreichend geeigneten, qualifizierten Facharbeit.

    Die Arbeit zur Risikobeurteilung
    „Probing the improbable: methodological challenges for risks with
    low probabilities and high stakes“
    von Ord, Hillerbrand und Sandberg ist nunmehr
    in einer Zeitschrift erschienen, sh. bitte
    Journal of Risk Research, Volume 13, Issue 2 March 2010,
    pages 191 – 205.

    Die Zeitschrift beschreibt, dass ihre Artikel zur Forschung
    (Research) einem „peer review“ im Doppelblindverfahren unterliegen.
    sh. – http://www.tandf.co.uk/journals/titles/13669877.asp :

    „Peer Review Policy
    All research articles in this journal have
    undergone editorial screening and double-blind peer review.“

    Ein Resumee aus der o.g. Facharbeit, S. 202 im Journal,
    lautet – Zitat:

    „However, our analysis implies that the current safety report should not be the final
    word in the safety assessment of the LHC. To proceed with the LHC on the arguments
    of the most recent safety report alone, we would require further work on estimating
    P(¬A), P(X|¬A), the acceptable expected death toll, and the value of future generations and other life on Earth. Such work would require expertise beyond theoretical physics, and an interdisciplinary group would be essential. If the stakes were lower, then it might make sense for pragmatic concerns to sweep aside this extra level of risk analysis, but the stakes are astronomically large, and so further analysis is critical. Even if the LHC goes ahead without any further analysis, as is very likely, these lessons must be applied to the assessment of other high-stakes low-probability risks.“

    Was seitens der genannten Autoren vermisst wird, ist die Anwendung robuster Schätzmethoden,
    die grundsätzliche Fehlerhaftigkeiten in den Theorien, Modellen und Kalkulationen berücksichtigen können.

    Die Autoren des Artikels schätzen das derzeit abzuhandelnde Risiko des
    LHC keineswegs als nullwertig ein – dabei ist die Information nicht
    ohne Bedeutung, dass unter den Verfassern eine Professorin ist,
    die eine preisgekrönte Doktorarbeit in der Theoretischen Physik erstellt hat.

    Die Anwendbarkeit oder Brauchbarkeit des in dieser Facharbeit beschriebenen
    Ansatzes zur Risikobeurteilung setzt offenbar bestimmte robuste Schätzmethoden
    voraus, die offenbar im vorliegenden Fall des LHC n i c h t zur Anwendung gekommen sind
    resp. sogar noch entwickelt werden müssen –
    angesichts der diskutierten ausserordentlichen, astronomischen Risikohöhe,
    eine o b l i g a t o r i s c h e Aufgabe –
    wie ich als evtl. mitbetroffener Bürger zurecht meinen darf.

    Download d. Facharbeit als Artikel im o.g. internationalen Journal:
    http://www.amirrorclear.net/academic/papers/risk.pdf

    Diesen Kommentar: Zitieren

Kommentare sind geschlossen.