Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers

von Redaktion am 6. Dezember 2010

Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.

Otto E. Rössler, Baden-Baden 2010

Otto E. Rössler, Baden-Baden 2010

RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.

Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.

  • Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!

RelativKritisch E-Edition

 Als ePub herunterladen 1998

Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!

Ähnliche Beiträge

1.318 Kommentare |
 
  1. #851 | Rudolf Uebbing | 16. Juli 2011, 10:01

    Vielen lieben Dank für Ihre Anstrengungen,
    die leider im Kern falsch sind – warum ?
    „Thus … the probability of a vacuum transition at
    RHIC is bounded by 2×10E-36.“ –

    Klarer geht es nicht!

    Ein Zitat von Jaffe, Busza et al, was
    Ihrer Meinung nach diese Forscher hätten gar
    nicht schreiben dürfen.
    Sie sind damit beschäftigt, Jaffe, Busza et al einen
    Fehler nachzuweisen.

    Wir reden über eine empirisch gesicherte
    Nachweisgrenze zu Teilchenkollisionen,
    zu denen kein vollständiges Wissen vorliegt und
    von deswegen in einem ungünstigen Fall
    ein ausgelöster Vakuumübergang nicht ausgeschlossen
    werden kann (darf) – dies
    gilt es bei künstlichen Teilchenkollisionen
    mitzuberücksichtigen.

    Für eine einzelne derart starke Teilchenkollision
    begrenzen Jaffe, Busza et al die
    Wahrscheinlichkeit für einen Vakuumsübergang
    auf einen Wert von bis zu 1E-47; das ist
    der konkrete Erfahrungswert, der auf der „sicheren Seite“
    liegt. Warum ? Wir haben kein vollständiges Wissen.

    Richtig ist – wir stimmen überein -,
    bei 1E47 Teilchenkollisionen
    konnte kein einziges bislang einen Vakuumübergang auslösen,
    unsere Existenz verdeutlicht dies.
    Dies sagt n i c h t aus, dass ein derartig ausgelöster
    Vakuumübergang unmöglich ist
    (Das jedoch genau wollen Sie hier vermitteln.).

    Sicher ist jedoch nicht,
    dass in Kürze eine Teilchenkollision dabei ist,
    die völlig Neuartiges auslöst, ggf. eine Teilchenkollision
    mit der Nr. 1,1*E47 + 1, also z.B. nach dem Ablauf
    einer weiteren Milliarde Jahren.
    Das haben Sie hier leider nicht verständlich machen können.
    Jaffe, Busza et al sind hier, wie ich meine
    zu Recht, weitaus vorsichtiger.

    Nun, Sie finden einen einfachen mathematischen
    Formalismus in den Referenzen des LSAG-Reportes 2008,
    der meine Interpretation verdeutlicht – ich komme
    darauf zurück. – Räumen Sie mir bitte als Web-Administrator die Möglichkeit dazu ein.

    (Auch will ich beiläufig darauf aufmerksam, dass Sie keine
    Beschimpfungen in wissenschaftlichen Arbeiten vorfinden –
    daraus kann gelernt werden.)

    Diesen Kommentar: Zitieren
  2. #852 | Quentin | 16. Juli 2011, 10:12

    konkludiert keineswegs zwingend gesichertes Wissen über das Geschehen in der Zukunft

    Seit Milliarden Jahren wird beobachtet, daß die Sonne jeden morgen aufgeht. Dies konkludiert nach Uebbing keineswegs zwingend gesichertes Wissen über das Geschehen in der Zukunft.

    Diesen Kommentar: Zitieren
  3. #853 | Quentin | 16. Juli 2011, 10:13

    Klarer geht es nicht!

    Sie haben nichts von dem verstanden, was Sie da als „klar“ bezeichnen.

    Diesen Kommentar: Zitieren
  4. #854 | Quentin | 16. Juli 2011, 10:18

    Sie sind damit beschäftigt, Jaffe, Busza et al einen
    Fehler nachzuweisen.

    Jetzt kommt aber der komplette Realitätsverlust. Es ist anders herum, Sie versuchen Jaffe et al etwas in den Mund zu legen, was diese nicht geschrieben haben.

    Was Sie da jetzt fabrizieren, ist doch der letzte Strohhalm, geradezu peinlich. Jetzt könnte es natürlich wieder sein, dass in Zulunft doch noch ein Vakuumübergang stattfinden könnte. Könnte. Möglicherweise. Vielleicht.

    Ja, Uebbing, kann sein. Aber weniger wahrscheinlich, wie das Ausbleiben des Sonnenaufgangs morgen.

    Diesen Kommentar: Zitieren
  5. #855 | achtphasen | 16. Juli 2011, 10:33

    Schön, hier ‚Solkar‘ zu lesen!

    Ich schmücke mich wirklich nicht gerne mit fremden Federn und habe darum Herrn Plaga’s Szenario bei meinen Bemühungen die Enceladus Anomalie als Risikoindiz zu erläutern aussen vor gelassen.

    ‚Solkar‘ hat in schwierigem Dialog auf achtphasen ‚MAC‘ dazu gebracht, zuzugestehen, dass dessen ‚Widerlegung‘ plagascher MSL-Szenarien gar keine ist und dass des Herrn Dr. Plaga’s Warnung vor am Eddington-Limit permanent Materie in Strahlung transformierender MSL-Relikte somit noch immer als nicht-widerlegt anzusehen ist.

    Frage an ‚Solkar‘ ob auch er/sie es für nicht ausschliessbar (also zumindest denkbar/möglich) erachtet, dass EIN (auf natürlichem Weg nur vergleichsweise doch sehr selten entstehendes MSL aus lhc-ähnlicher ((beinahe) symetrischer) Kollision zweier Teilchen (lhc-ähnlich hochenergetischer) kosmischer Strahlung (mit relativ zum Sonnensystem geringem Impuls) in des Enceladus Südpolregion gelangt ist … und dort das (eigentlich tiefstgefrorene) Waser derart aufgewärmt hat, dass dort die nun beobachtbaren aber entsprechend ‚alter‘ Physik (noch) unerklärlichen Phänomene getriggert worden sind?

    Gute Grüsse!

    Diesen Kommentar: Zitieren
  6. #856 | achtphasen | 16. Juli 2011, 10:37

    Oha! hier ist zwischenzeitlich (während der Formulierung meiner Frage an ‚Solkar‘) gar viel Text entstanden …
    meine Frage an ‚Solkar‘ bezieht sich auf dessen Beitrag: http://www.relativ-kritisch.net/blog/lhc-widerstand/otto-e-rossler-anthologie-eines-weltratsellosers/comment-page-17#comment-4068

    Diesen Kommentar: Zitieren
  7. #857 | Rudolf Uebbing | 16. Juli 2011, 11:01

    @ Quentin:

    Die einfache, klare Darstellung bei Jaffe, Busza et al –
    wie kann man dies nur missverstehen ?

    Die Kleinheit der Zahlenwerte zu der Wahrscheinlichkeitsobergrenze (2E-36 im Falle des RHIC) ist in inhaltlicher Übereinstimmung mit umgangssprachlich
    Sätzen wie „Seit Milliarden Jahren wird beobachtet, daß die Sonne jeden morgen aufgeht.“ –

    Wir sollten doch froh sein, dass hier von Jaffe, Busza et al eine
    konkrete Quantifizierung erreicht worden ist, die hilft,
    das Geschehen möglichst r e a l i s t i s c h zu betrachten, d.h. in einem Modell
    zu beschreiben, welches es gilt, weiter auszubauen.

    Diesen Kommentar: Zitieren
  8. #858 | galileo2609 | 16. Juli 2011, 11:11

    Uebbing,

    Rudolf Uebbing | 16. Juli 2011, 10:01
    Ein Zitat von Jaffe, Busza et al, was
    Ihrer Meinung nach diese Forscher hätten gar
    nicht schreiben dürfen.
    Sie sind damit beschäftigt, Jaffe, Busza et al einen
    Fehler nachzuweisen.

    mir ist ja egal, was sie glauben. Nur eins, es ging keineswegs darum, Jaffe et al. einen Fehler nachzuweisen. Ich weiss auch, dass es unmöglich ist, sie oder einen jetzt erneut wild phantasierenden achtphasen von irgendetwas zu überzeugen. Dazu haben sie sich beide viel zu sehr in ihre närrischen Ideen verrannt.

    Ich wollte ihnen lediglich aufzeigen, dass sie sich mit ihren Scheinrechnungen und Pseudopräzisionen völlig verheben. Das ist kein Wunder, wenn man den wissenschaftlichen Kontext erbarmungslos vernachlässigt und lediglich Rosinenpickerei betreibt.

    Ich würde mich auf so was jedenfalls nicht verlassen. Das wäre mir viel zu unsicher. 🙂

    galileo2609

    Diesen Kommentar: Zitieren
  9. #859 | Quentin | 16. Juli 2011, 11:19

    Die einfache, klare Darstellung bei Jaffe, Busza et al –
    wie kann man dies nur missverstehen ?

    Ja, das sollten Sie sich mal ernsthaft fragen. Vor allem nachdem Ihnen derartig viele Hilfestellungen gegeben wurden. Nicht zuletzt von Solkar.

    Diesen Kommentar: Zitieren
  10. #860 | Rudolf Uebbing | 16. Juli 2011, 12:52

    Hier denke ich, dass ich meine grundsätzlich
    einfachen, überprüfbaren Schlussfolgerungen nicht ausreichend verständlich formuliert habe.

    Vielleicht doch noch mal zur Verdeutlichung,
    was die konkrete, wissenschaftliche Aussage von Jaffe, Busza et al zu den RHIC-Teilchenkollisionen bedeutet:

    a) Die Wahrscheinlichkeit einer Vakuuminstabilität
    infolge bestimmter Arten von Teilchenkollisionen
    k a n n Null betragen. Das versuchen Sie hier als
    Gesprächspartner mir zu verdeutlichen, darüber
    hinaus versuchen Sie zu vermitteln, dass der wahre Wert
    tatsächlich ein echtes Null ist.

    b)Diese Wahrscheinlichkeit kann gem. Jaffe, Busza et
    al aber mit den Werten, zum Beispiel mit
    2E-37,
    4E-37,
    6E-37,
    8E-37,
    n i c h t ausgeschlossen werden.
    (Grund: Unvollständiges Wissen.)

    c) Wissenschaftlich ausgeschlossen werden auf empirischer
    Basis Wahrscheinlichkeitswerte größer
    als 2E-36 für eine Vakuuminstabilität verursacht
    durch das RHIC-Experiment.

    Ein absurd kleiner Wert, der dennoch genauestens
    zu bewerten ist, wenn die Gewichtigkeit
    des Geschehens miteinbezogen wird.

    Das Temperaturäquivalent bei den LHC-Kollisionen
    (Protonen/Protonen- und Schwerionenkollisionen)
    übertrifft das entsprechende Äquivalent in
    bekannten Supernovae (Maximumsangabe: 500 Milliarden
    Grad); man muss bis 1 Millionstel einer Millionstelsekunde sich den Big-Bang-Bedingungen
    nähern, um entsprechend physikalisch extreme Zustände wiederzufinden.

    Die Ausserordentlichkeit besteht darin, dass
    zwei gleichschnelle Teilchen sich frontal begegnen und
    die Kollisionsprodukte andere Restimpulsverteilung aufweisen als
    im Falle der Kosmischen Strahlung; im Innern
    eines astronomischen hochkompakten Objektes
    kann dies gleichgültig sein, nahe der Erdoberfläche
    sieht die Situation anders aus.

    Diesen Kommentar: Zitieren
  11. #861 | Quentin | 16. Juli 2011, 13:10

    Uebbing, das die Null gerechtfertigt ist, erkennt jeder, der einml den betreffenden Satz übersetzt und vmit Verstand liest.

    Diesen Kommentar: Zitieren
  12. #862 | Quentin | 16. Juli 2011, 13:12

    Und im LHC begegnen sich keine harten Teilchen frontal, Sie dreckiger Agitator. Diese Bezeichjnung ist gerechtfertigt aufgrund fortgesetzter Missachtung der wahren Bedingungen im Experiment.

    Diesen Kommentar: Zitieren
  13. #863 | Quentin | 16. Juli 2011, 13:16

    Unvollständiges Wissen.)

    Bezüglich der Vakuumgeschichte ist das Wissen aber sowas von vollständig….wie beim Sonnenaufgang.

    Ich komme zum Schluss, Sie sind borniert, schlicht zu dumm, um dies nachzuvollziehen. Nicht mal die benannten Analgien (Würfel, Sonnenaufgang etc) haben gefruchtet.

    Halten Sie einfach in Zukunft die Klappe, wenn es um Physik geht, das würde Ihnen so manche Peinlichkeit ersparen. Physikalische Argumentationen setzen mehr voraus als nur Wörter aus Artikeln zu picken. Man sollte auch verstehen, das dort steht.

    Diesen Kommentar: Zitieren
  14. #864 | Rudolf Uebbing | 16. Juli 2011, 13:32

    @Quentin:

    Zu den geometrischen Verhältnissen bei der Teilchenkollision
    bei gegenläufigen Teilchenstrahlen:

    Lesen Sie selbst nach – Frontalkollisionen gibt es auch im
    Straßenverkehr, die wesentlich weniger präzis gegeneinander ausgerichtet sind als in den vier LHC-Experimenten –
    der Kollisionswinkel beträgt dort zeitweise 0,01 Grad (Altgrad, 360 Grad -Kreisteilung) –
    wenn das nicht die Bezeichnung „frontal“ verdient ?

    Diesen Kommentar: Zitieren
  15. #865 | Rudolf Uebbing | 16. Juli 2011, 13:33

    @Quentin:
    Vielleicht überdenken Sie Ihre unwissenschaftliche Schimpfe ?

    Diesen Kommentar: Zitieren
  16. #866 | Quentin | 16. Juli 2011, 13:42

    Vielleicht überdenken Sie Ihre unwissenschaftliche Schimpfe ?

    Wissen Sie, Ihnen als miesem Agitator gegenüber, der seine Argumente ohne Sinn und Verstand zusammempickt, ist das mehr als angemessen.

    Eher noch beschönigend.

    Zu Frontal:

    Sie gehen implizit immer von sich komplett neutralisierenden, perfekt frontalen Kollisionen aus in Ihrer Spinnerei. Das ist am LHC nicht der Fall. Ein weiterer Fall billiger Agitation, da Ihnen das schen oft gesagt, teils gerechnet wurde. Sie ignorieren es. Somit dreckiger Agitator.

    Sie können ja mal ausrechnen, welche Auswirkungen bei den betreffenden Energien diese kleine Abweichung hat. zeigen Sie doch mal, daß dies vernachlässigbar ist, wie Sie suggerieren.

    Diesen Kommentar: Zitieren
  17. #867 | Rudolf Uebbing | 16. Juli 2011, 14:49

    Falsch:
    „Sie gehen implizit immer von sich komplett neutralisierenden, perfekt frontalen Kollisionen aus …“ (Zitat / Quentin)

    Richtig:
    Ich wünsche computerisierte Modellsimulationen zu einigen
    physikalischen Behauptungen. – Bei bis zu 600 Millionen
    Kollisionen pro Sekunde ist die Überdeckungswahrscheinlichkeit
    von miteinander agierenden, wirksamen Querschnitten interessant –
    die Restimpulsverteilung ist nicht trivial; sie ist selbstverständlich untersucht,
    aber es wird nur wenige Risikoforscher geben, die wichtige
    entscheidende Angabe gezielt ohne Hilfe aus den Analysen herausziehen können;
    ich wünsche eine Risikoanalyse, die
    methodisch dem aktuellen Stand der Risikoforschung bestmöglich
    entspricht. Physiker sind nun mal keine Risikoforscher und können
    daher fachlich hier nicht voll mithalten; verständlich muss sein,
    dass angesichts der ausserordentlichen Risikobedeutung die Forderung naheliegend ist, die Analyse einem Risikoforschungsinstitut zu übertragen,
    wo Physiker dann ihr Spezialwissen einbringen.

    Gestern konnte nachgelesen werden,
    dass ein physikalisches Beobachtungsergebnis den 50-fachen Prognoswert
    des Standardmodelles der Teilchenphysik signifikant verläßlich übertrifft –
    eine vernünftige Forderung ist hier sofort erkennbar:
    Nach Anpassung der Theorie an die aktuelle Beobachtung ist der kritische Parameterraum,
    welcher speziell zu Risiken denkbar ist, neu zu kalkulieren
    und das Experiment demgemäß abzuklopfen und ggf. neu
    anzugleichen (z.B. kleinere Energiestufungen
    im Sinne einer Risikominderung einzuführen; dies ist
    nicht meine Idee).

    Diesen Kommentar: Zitieren
  18. #868 | Rudolf Uebbing | 16. Juli 2011, 15:39

    Die von mir oben oben erwähnte Signifikanz einer physikalischen
    Aussage – als für einen bestimmten Zweifel
    an der Vollgültigkeit des Standardmodelles der Teilchenphysik
    meinerseits (unmaßgeblich!) als verläßlich eingeschätzt –
    in einer aktuellen Meldung über eine
    auffällige physikalische Beobachtung im Standardmodell
    quantifiziere ich hier noch nachträglich, wie unten im Weblink angegeben:
    Wahrscheinlichkeit für ein nur zufallsbedingtes
    Resultat: 1/200 Prozent, nämlich dass auffällig mehr Myonen
    als Antimyonen am Tevatron registriert wurden.

    sh.
    http://www.astronews.com/news/artikel/2011/07/1107-017.shtml

    Daraus:
    „Diese Abweichung ist 50-mal größer als vom Standardmodell
    der Elementarteilchen vorhergesagt wird.
    Bei der aktuellen Studie handelt es sich
    um eine Aktualisierung der Analyse des letzten Jahres:
    Inzwischen konnten rund 50 Prozent mehr Daten analysiert
    und damit die Unsicherheit des Ergebnisses verringert werden.
    Die Chance, dass es sich bei dem Effekt um einen
    statistischen Zufall handelt, liegt nun bei etwa 0,005 Prozent
    und hat damit den Status eines starken Hinweises auf eine
    wissenschaftliche Entdeckung. Allerdings spricht man in der
    Wissenschaft erst bei 0,00003 Prozent und
    bei unabhängiger Bestätigung durch andere Experimente von einer
    echten Entdeckung.“

    Nun, in diesem Zusammenhang wurde vor Monaten einiges als voreilig
    gekennzeichnet, muss ergänzt werden.

    Für Zweifel müssen, wie ich meine, andere (niedrigere)
    Signifikanzschwellen gültig sein, als für die
    Anerkennung von Entdeckungen.

    Diesen Kommentar: Zitieren
  19. #869 | Quentin | 16. Juli 2011, 16:15

    Falsch:
    “Sie gehen implizit immer von sich komplett neutralisierenden, perfekt frontalen Kollisionen aus …” (Zitat / Quentin)

    Oh doch, das tun Sie. Sonst würden Sie so einiges gar nicht erst schreiben.

    Diesen Kommentar: Zitieren
  20. #870 | Quentin | 16. Juli 2011, 16:18

    Sie haben übrigens immer noch nicht kapiert, daß die vorliegenden Sicherheitsanalysen davon nicht mal betroffen sind.

    Die gehen weit darüber hinaus. Ihre ganzen Bandwurmbeiträge sind nicht nur absolut inhaltsleer, sie gehen auch noch an der Sache vorbei. Seit Jahren.

    Diesen Kommentar: Zitieren
  21. #871 | Rudolf Uebbing | 16. Juli 2011, 18:31

    Ich will versuchen, kürzer und
    verständlicher zu formulieren.

    Diesen Kommentar: Zitieren
  22. #872 | ralfkannenberg | 18. Juli 2011, 12:07

    Hallo zusammen,

    ich will einmal eine solche Mini-Zahl wie 10**(-36) veranschaulichen:
    Wie gross ist die Wahrscheinlichkeit, dass alle Menschen übersehen haben, dass die Summe der natürlichen Zahlen 2 und 3 gar nicht 5 ergibt ?

    Ich treffe zur Berechnung dieser Wahrscheinlichkeit folgende Annahmen, die allesamt zur absurd sicheren Seite hin abgeschätzt sind:
    1. pro Generation gibt es 10 Mrd Menschen
    2. eine Generation dauert nur 10 Jahre
    3. Menschen gibt es seit 10 Mio Jahren, d.h. es gibt 1 Mio Generationen

    Somit haben auf der Erde bislang maximal (10**6 Generationen) * (10**10 Menschen pro Generation), also 10**16 Menschen gelebt.

    Des weiteren nehme ich an, dass
    4. jeder Mensch obige Rechnung bzw. den zugehörigen Beweis ohne Ermüdung in jeder Sekunde seines Lebens einmal überprüft hat
    5. jeder Mensch über 1000 Jahre alt wird

    Der Bequemlichkeit halber runde ich alle Umrechnungen Sekunden->Minuten->Stunden->Tag->Jahr auf die volle Zehnerpotenz auf (alles zur sicheren Seite hin !), d.h.
    1000 Jahre < 1000*1000 Tage < 1000*1000*100 Stunden < 1000*1000*100*100 Minuten < 1000*1000*100*100*100 Sekunden, d.h.

    1000 Jahre < 10**(3+3+2+2+2) Sekunden = 10**12 Sekunden.

    Ich habe also überall zur sicheren Seite hin abgeschätzt.
    Somit gab es 10**16 Menschen * (10**12 Sekunden) Überprüfungen, dass 2+3 gleich 5 ergibt, also 10**28 Überprüfungen.

    Nun nehmen wir noch an, dass:

    6. jede dieser Überlegungen eine Irrtumswahrscheinlichkeit von nur 1:1 Mio hat (3 Grössenordnungen besser als von Ord et al. postuliert).

    Dann ist die Wahrscheinlichkeit, dass sich alle Menschen bei der Aufgabe 2+3=5 ein Fehler übersehen wurde, gleich
    (1 : Anzahl Überprüfungen) * Irrtumswahrscheinlichkeit, also 1: (10**28) * (1: 10**6) = (1:10**34) !!!

    Selbst dieses absurde Restrisiko ist höher als die genannte Zahl bei den Vakuuminstabilitäten.

    Freundliche Grüsse, Ralf

    Diesen Kommentar: Zitieren
  23. #873 | Rudolf Uebbing | 18. Juli 2011, 13:46

    Vielen Dank für eine rein sachlich orientierte
    Antwort; meine begründete Sichtweise dazu will ich
    später verdeutlichen; sie beruht im wesentlichen auf Werteabwägungen bei nicht vollständigem Wissen.

    Zunächst einmal gilt:
    Wissenschaftlicherseits genannte, eindeutig beschriebene Wahrscheinlichkeiten,
    welche eine mit ihnen verbundene bestimmte, konkret bezifferte Obergrenze meinen, sind unmissverständlich in seriösen Fachzeitschriften (mit peer review) dokumentiert.

    Diesen Kommentar: Zitieren
  24. #874 | ralfkannenberg | 18. Juli 2011, 15:07

    Sehr geehrter Herr Uebbing,

    bitte beachten Sie bei meiner obigen Rechnung, dass ein Restrisiko eine Zahl ist, die GRÖSSER ist als das tatsächliche Risiko. Bei meiner obigen Abschätzung indes habe ich das (Rest-)Risiko nach unten abgeschätzt, d.h. die von mir bestimmte Zahl ist KLEINER als das (Rest-)Risiko.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  25. #875 | Rudolf Uebbing | 18. Juli 2011, 16:43

    Zu #874 | ralfkannenberg | 18. Juli 2011, 15:07

    „bitte beachten Sie bei meiner obigen Rechnung, dass ein Restrisiko eine Zahl ist, die GRÖSSER ist als das tatsächliche Risiko.“

    – ist voll beachtet – sh. a) b) und c) i.g. Kommentar
    #860 | Rudolf Uebbing | 16. Juli 2011, 12:52.

    Diesen Kommentar: Zitieren
  26. #876 | Rudolf Uebbing | 18. Juli 2011, 17:07

    Zu der Obergrenzenaussage von Jaffe, Busza, Sandweiss, Wilczek ( =: JBSW):

    Mittlerweile habe ich in der oben oft zitierten
    Arbeit dieser vier Wissenschaftler die Stellen
    gefunden, die die Herleitung der mit
    dem Wert 2E-36 begrenzten Wahrscheinlichkeit
    (RHIC bedingter hypothetischer Vakuumübergang) verdeutlichen;
    diese Forscher gehen nämlich dort einen ähnlichen
    Weg bei der Beurteilung evtl. kritischer Strangeletproduktion.

    Die oben von mir beantworteten Fragen (mit A, B, C, …
    gekennzeichnet) sind recht allegorisch –
    die Herleitung des Wertes 2E-36 hingegen gelingt
    konkret – ich möchte dies, wie weiter oben schon angesprochen,
    im Laufe der Woche hier einmal darstellen.

    Ich bedauere sehr, dass diese probalistischen Aussagen
    von JBSW nicht aufgegriffen u n d angemessen vertieft werden;
    wie ich meine, helfen genau sie
    zu einer möglichst realistischen Situationsbeurteilung.

    Die deterministisch geprägte Beurteilung von Giddings und
    Mangano auf Basis vornehmlich einer Aussagenlogik
    zitiert und wertet leider keine Verlässlichkeitsangaben (Standardabweichungen etc.) aus,
    was in der Folge zu probalistisch orientierten Aussagen geführt hätte.

    Ich behaupte: Ein federführendes Risikoforschungsinstitut
    besteht auf die Einbeziehung und Auswertung der zugehörigen Verlässlichkeitsangaben – gerade Verlässlichkeitsangaben
    sind Kennzeichen guter Sicherheitsanalysen; ohne
    Verlässlichkeitsangaben ist schlicht eine zeitgemäße
    Sicherheitsbeurteilung nicht denkbar.

    Diesen Kommentar: Zitieren
  27. #877 | ralfkannenberg | 18. Juli 2011, 18:43

    Sehr geehrter Herr Uebbing,

    wie neben den Ausführungen meiner Vorredner auch mein Beispiel illustriert haben dürfte, liefern wahrscheinlichkeitstheoretische Überlegungen keine guten und insbesondere auch keine verlässlichen Aussagen. Es ist in jedem Fall besser, konkrete Berechnungen durchzuführen statt sich auf letztlich sehr schwer interpretierbare und überdies auch auf viel zu ungenauen Annahmen beruhende Risikoüberlegungen zu verlassen. Letztlich kann man festhalten, dass eine Risikoanalyse erst dann Sinn macht, wenn die Komplexität einer Aufgabenstellung so gross geworden ist, dass man nicht mehr direkt nachrechnen kann. Solange man aber direkt nachrechnen kann, liefert dies ein besseres Ergebnis, und die Güte dieses besseren Ergebnisse lässt sich ebenfalls quantifizieren, sie ist nämlich anschaulich gesprochen “unendlich“ mal besser.

    Der Ansatz einer wahrscheinlichkeitstheoretischen Sicherheitsüberlegung ist bei der Physik eines Teilchenbeschleunigers nicht zielführend, wohl aber bei der ingenieurmässigen Realisierung einer solchen Maschine.

    Interessant bei Ihren Ausführungen indes ist die Frage nach den Signifikanz-Niveaus der den Sicherheitsanalysen zugrundeliegenden Beobachtungsdaten. Beispielsweise kann man in „The ultra-cool white dwarf companion of PSR J0751+1807“, C. G. Bassa, M. H. van Kerkwijk,
    S. R. Kulkarni, 2006 (http://arxiv.org/abs/astro-ph/0601205) auf Seite 3 im 4.Absatz folgenden Satz finden:

    Given the low density of about 47 stars per square arcminute and the excellent astrometry, the probability of a chance coincidence in the 95% confidence error circle, which has a radius of 0. ′′24, is only 0.1–0.2%. Since, as we will see, it is hard to envisage how the companion could be fainter than the object detected, we are confident that star X is the companion of PSR J0751+1807.

    .

    Natürlich sind das Fehler im Prozentbereich, jedoch liegt die Helligkeit des Begleitsternes in der richtigen Grössenordnung und überdies sind rund 20 solcher Sternpaare Neutronenstern – Weisser Zwerg bekannt. Sie können sich ausrechnen, wie gross die Wahrscheinlichkeit ist, dass bei allen 20 Pärchen ein Vorder- oder Hintergrundstern der passenden Helligkeit gerade neben dem Neutronenstern steht.
    Gehen wir der Einfachheit halber von einer 5%igen Fehlerrate pro Sternpaar aus, so ergibt das (5%)**20, also (1/20)**20; 2**10 = 1024, also ungefähr 1000, so dass eine Wahrscheinlichkeit von 1:10**26 resultiert. Bei dieser Überlegung habe ich noch gar nicht berücksichtigt, dass der gefundene Begleitstern zufällig auch die „richtige“ Helligkeit aufweist.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  28. #878 | Rudolf Uebbing | 18. Juli 2011, 22:47

    Folgenden Satz halte ich für unzutreffend – eine genau
    gegenteilige Aussage hingegen halte ich für richtig:

    „…liefern wahrscheinlichkeitstheoretische Überlegungen keine guten und insbesondere auch keine verlässlichen Aussagen. …“

    Deterministisch orientierte Aussagen lassen sich in
    aller Regel in Einzelaussagen zerlegen, wobei dann sehr schnell im
    Detail klar wird, dass Einzeleinflüsse nicht beliebig
    genau bestimmt sind, was zur Folge hat, dass in
    solchen Fällen ja/nein-Aussagen tendenziell richtig sein
    können, aber dann u n e r k a n n t e r w e i s e
    (genauso schlimm: unbenannterweise) teilweise beträchtliche Irrtumspotenziale
    beinhalten können, die dann gelegentlich zu einer Falschprognose
    führen können.

    Da halte ich es lieber mit Dr. Gerd Antes, dem Direktor des Deutschen Cochrane Zentrums,
    und Dr. Norbert Pfeil, wo ich für mich klare Begründungen
    nachlesen kann, dass probalistische Analysen eindeutig
    mehr Aussagekraft haben als ja/nein-Resultate.
    (Probalistisch orientierte Aussagen enthalten i.d.R. m e h r
    entscheidende Information.)

    Einfacherweise gilt:
    Vorhandene Irrtumspotenziale sind ausfindig zu machen und zu benennen,
    auszuloten und zu quantifizieren und auf ihre
    Auswirkungen auf vermeintliche Sicherheitsresultate
    hin zu prüfen – erst dann liegt ein vertrauenswürdiges
    Ergebnis vor.

    Warum ? Antwort: Unser derzeitiges Wissen ist definitiv unvollständig.

    Diesen Kommentar: Zitieren
  29. #879 | Hans | 18. Juli 2011, 22:53

    Deterministisch orientierte Aussagen lassen sich in
    aller Regel in Einzelaussagen zerlegen,

    Wann fangen Sie denn endlich damit an, Sie Enceladus-Kasper und Meister des unscharfen Herumgesülzes?

    Genau das, was Sie hier anmerken, haben Sie eben noch nie getan. Sie haben nicht mal ansatzweise auch nur irgendeine Schwäche an den vorliegenden, Ihrem Gesülze weit überlegenem Papern und Reports aufzeigen können. Sie sind ein Versager, der gerne in elendig langen, die deutsche Sprache verhunzenden Bandwurmsätzen lauwarme Luft in die Welt pustet. Sie suggerieren permanent, es wäre „geschummelt“ worden (ja, das suggerieren Sie, egal ob Sie es explizit sagen oder nicht, Dummschwätzer!), haben in drei Jahren nichts, absolut nichts handfestes dazu liefern können. Es ist sogar eher fraglich, dass Sie die betreffenden Paper überhaupt gelesen haben.

    Weniger wohlwollend kann man das schon fast als üble Nachrede bezeichnen.

    Diesen Kommentar: Zitieren
  30. #880 | Rudolf Uebbing | 18. Juli 2011, 23:12

    Bitte, weiter zu Kommentar #877 | ralfkannenberg | 18. Juli 2011, 18:43:

    Vielen Dank, dass Sie hier einen konkreten Ansatz
    für eine probalistisch orientierte Analyse einmal
    ziemlich praktisch demonstrieren.

    Wie ich im Sinne einer probalistisch orientierten Untersuchung
    mir wünsche, wäre es gut,

    – dass
    a) die Schlussfolgerungskette von
    Giddings und Mangano einmal formalistisch, also z.B.
    in einem Abkürzungsschema, dargestellt werden sollte;
    evtl. in einer grafischen Darstellung, in einem
    Entscheidungsbaum, der hilft zu erkennen, ob etwas
    übersehen wurde etc. ;

    – klarzustellen, ob und dass
    b) jede Schlussfolgerung bei G&M in der logischen
    Schlussfolgerungskette verbunden ist
    mit z.B. astronomischen Beobachtungen,
    (welche Beobachtungen denn genau mit welcher quantifizierten
    Verlässlichkeit explizit an einem Verzweigungspunkt
    herangezogen werden)
    um die Vollgültigkeit einer Schlussfolgerung oder deren tatsächliche Qualität nachzuweisen;

    – sich bewusst zu machen, dass
    c) die Verlässlichkeit jedes einzelnen Schlussfolgerungsschrittes
    von der Qualität u. Quantität der vorliegenden, zugehörigen
    Beobachtungen abhängig ist,
    z.B. von einer derartige Überlegung,
    wie Sie sie freundlicherweise hier vorgestellt haben
    (bei bestimmten Doppelsternen).

    Da physikalische Beobachtungen einen Zufallsfehler haben,
    bleiben kleine Fehlerhaftigkeit letzten Endes i m m e r über;
    z.B. gilt es, diese auf ihre Auswirkungen zu untersuchen,
    wenn man ein ausserordentliches Risiko wie das diskutierte
    analysiert. Zudem wissen wir, dass neben zufälligen
    Fehlern noch Fehler systematischer Art existieren und sogar
    grobe Fehler vorkommen können.

    Ich erinnere an T. Ord et al,
    welche weitere Fehlerquellen in Theorien,
    in Modellen und in Berechnungen sehen (hier sind wir vornehmlich
    beim Punkt Kalkulation).

    Dazu muss man auch verstehen,
    dass probalistische Untersuchungen
    m e h r an Informationen bedürfen,
    als deterministisch geprägte,
    vornehmlich auf Aussagenlogik beruhende.
    Mehr Information ist hier besser als zu
    wenig Information zugrunde zu legen.

    Die Wahrscheinlichkeitslogik lässt sich sehr einfach
    in Aussagenlogik umsetzen,
    wenn man die tatsächlich gegebenen Wahrscheinlichkeiten
    (oft nahe bei Null oder bei Eins)
    durch die Werte exakt Null oder exakt Eins ersetzt –
    dann ist klar, dass man
    wie von selbst ein perfektes Sicherheitsbild gewinnt,
    was leider täuschen kann, weil Informationen einfach
    beiseite gelassen wurden.

    Das ist meine methodisch bezogene Kritik
    an Giddings und Manganos Arbeit – da lobe
    ich mir die Arbeit von Jaffe, Busza, Sandweiss und
    Wilczek aus 1999, welcher letzterer ja später für seine
    QCD-Erkenntnisse einen Nobelpreis bekommen hat.

    Letzten Endes – dies ist mein Eindruck –
    gehen Giddings und Mangano implizit von einer bestimmten
    Vollständigkeit des Wissens aus,
    welche aber tatsächlich n i c h t vorliegt,
    und erklären einen tatsächlichen Fast-Nullwert
    als einen Nullwert
    oder konkludent als nicht untersuchungswürdig;
    dies bei der Ausserordentlichkeit dessen,
    was an besonderem Risiko zu diskutieren ist –
    wie andere kritische Menschen und ich finden,
    wird diese Verkürzung den gegebenen Anforderungen
    nicht gerecht.

    Wie die Beurteilung der Vakuumsinstabilität aufzeigt,
    hat der vom CERN-Generaldirektor Dr. Heuer sehr gelobte Physiker
    Don Lincoln definitiv unrecht,
    wenn er Risiken mit „exakt Null“
    i.V.m. dem LHC beschreibt,
    wenn tatsächlich ein Restzweifel
    streng wissenschaftlich bis zum maximalen
    Wert 2E-36 als Risikoobergrenze nicht auszuschließen(sh. JBSW, RHIC-Fall).

    Was berechtigt den Physiker Don Lincoln aus einem kleinen Wert
    einer nicht widerlegter Unsicherheit
    eine völlige Gewissheit abzuleiten (?) –
    ich empfinde dies als unwissenschaftlich.

    Das worst-case-Prinzip darf hier nicht
    stillschweigend verlassen werden.

    Diesen Kommentar: Zitieren
  31. #881 | galileo2609 | 19. Juli 2011, 01:51

    Uebbing,

    Rudolf Uebbing | 16. Juli 2011, 18:31
    Ich will versuchen, kürzer und
    verständlicher zu formulieren.

    von diesem Ideal sind sie immer noch meilenweit entfernt. Wenn sie das nicht in den nächsten Kommentaren von alleine hinbekommen, werde ich nachhelfen müssen. Ich bin ihr sinnfreies Geschwurbel endgültig leid.

    galileo2609

    Diesen Kommentar: Zitieren
  32. #882 | Solkar | 19. Juli 2011, 06:46

    Herr Übbing,

    z.B. das hier

    Rudolf Uebbing schrieb am 18. Juli 2011, 23:12

    a) die Schlussfolgerungskette von
    Giddings und Mangano einmal formalistisch, also z.B.
    in einem Abkürzungsschema, dargestellt werden sollte;
    evtl. in einer grafischen Darstellung, in einem
    Entscheidungsbaum, der hilft zu erkennen, ob etwas
    übersehen wurde etc. ;

    ist doch eigentlich eine Arbeit, die Sie selbst leisten können sollten, oder?

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  33. #883 | ralfkannenberg | 19. Juli 2011, 09:40

    Ich erinnere an T. Ord et al, welche weitere Fehlerquellen in Theorien, in Modellen und in Berechnungen sehen (hier sind wir vornehmlich beim Punkt Kalkulation).

    Sehr geehrter Herr Uebbing,

    das nutzt dort aber leider nichts, weil T.Ord et al. einen ohnehin schon ausgezeichnet abgeschätzten Term noch etwas besser abschätzen. Die Autoren versäumen es, diese Aufteilung im nur schlecht abschätzbaren zweiten Summand der Bayes’schen Formel einzusetzen, und wenn Sie es einmal selber versuchen, sehen Sie auch sofort, warum: Es resultieren nämlich völlig unübersichtliche Ausdrücke, die keinerlei Vereinfachung darstellen. Dieser Ansatz funktioniert also für extrem kleine Wahrscheinlichkeiten, die im Eintrittsfalle eine hohe Auswirkung haben, leider nicht.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  34. #884 | Rudolf Uebbing | 19. Juli 2011, 13:16

    Bitte, nur kurz zu den vorhergehenden Kommentaren

    a) Lange Sätze versuche ich zwecks besseren Verständnisses
    zu kürzen.

    b) Für konstruktive Ideen will ich aufnahmebereit sein.

    c) Zu T.Ord et al.:

    Die von diesen Autoren skizzierte rechnerische
    Behandlung von bestimmten Ungewissheiten halte ich für entwicklungsfähig;
    hier will ich nur die grundsätzlichen Fehlerquellen nochmal nennen –
    kurz TMC: Theorie, Modelle, Kalkulation.
    Wie dies detailliert, methodisch verfeinert und
    pragmatisch nutzbar gemacht werden kann, dazu liegen
    sicherlich bereits einige Erkenntnisse (Analyseverfahren) bei Risikoforschungsinstituten vor, wie ich meinen darf.

    Als Laie steht man vor einem Berg von Kenntnissen,
    die es gilt, von Expertenhand im Sinne des obligatorischen
    Vorsorgeprinzipes hier gezielt auszuwählen und anzuwenden.

    Die Mühe, hier ein feingliedriges probalistisches Modell
    zu entwickeln und nutzbar zu machen, übersteigt
    die Kraft einzelner, weniger Personen oder kleiner
    Gruppen – wie zu erleben;
    dennoch wird es im vorliegenden Fall zur Realisierung bedeutend
    aussagekräftigerer Sicherheitsbeurteilungsverfahren
    in der Zukunft kommen.

    Diesen Kommentar: Zitieren
  35. #885 | ralfkannenberg | 19. Juli 2011, 16:34

    dazu liegen sicherlich bereits einige Erkenntnisse (Analyseverfahren) bei Risikoforschungsinstituten vor, wie ich meinen darf.
    (…)
    Die Mühe, hier ein feingliedriges probalistisches Modell zu entwickeln und nutzbar zu machen, übersteigt die Kraft einzelner, weniger Personen oder kleiner Gruppen

    Sehr geehrter Herr Uebbing,

    ich glaube nicht, dass das die Kraft einzelner übersteigen würde; es würde m.E. genügen, die zuständigen Risikoforschungsinstitute mit Personen vom Fach und nicht mit Philosophen zu besetzen. Ich habe gewiss nichts gegen selbsternannte Risikoexperten, doch sollte deren Know-How wenigstens das Niveau eines Gymnasiasten im Leistungskurs Mathematik erreichen.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  36. #886 | Solkar | 19. Juli 2011, 18:47

    @Rudolf Übbing.
    Rudolf Uebbing schrieb am 19. Juli 2011 um 13:16

    b) Für konstruktive Ideen will ich aufnahmebereit sein.

    Das wäre zwar neu, aber … wayne?

    Wem, ausser Ihnen selbst, sollte daran gelegen sein, dass Sie für etwas „aufnahmebereit“ sind?

    Das pdf zu [1] hat ein Inhaltsverzeichnis, strukturierte Gleichungsnummerierung und navigierbare Querverweise; wenn Sie sich ergänzend Bildchen malen müssen, um der Argumentation folgen zu können, ist das Ihre Hausaufgabe und niemandes sonst.

    Grüsse,

    S.

    [1]Giddings, S. B. and Mangano, M. L, „Astrophysical implications of hypothetical stable TeV-scale black holes“, 2008, arXiv:0806.3381v2 [hep-ph]

    Diesen Kommentar: Zitieren
  37. #887 | ralfkannenberg | 19. Juli 2011, 19:06

    Ergänzend zu Solkar sei noch auf das Kapitel 9 von [1] verwiesen, in dem eine Fallunterscheidung getätigt wird, die für den Anfang durchaus hilfreich sein dürfte und aus denen sich die gewünschten „Schlussfolgerungsketten“ herleiten lassen.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  38. #888 | Rudolf Uebbing | 19. Juli 2011, 23:29

    Man schaue sich einmal die Fehlerbäume in einer deutschen
    Studie zur Kernkraftsicherheit an – da sehe ich, was
    Professionalität in der Sicherheitsanalyse tatsächlich bedeutet.

    Ich gehe davon aus, dass eine entsprechende Grafik, die detailliert die Schlussfolgerungsketten
    bei G&M darstellt, ziemlich umfangreich ist; wenn die Darstellung wirklich eine Kleinigkeit wäre, wäre ich schon froh, wenn jemand dies einmal demonstrierte.

    Wichtig ist, nicht aus dem Sinn zu verlieren, dass Verlässlichkeitsangaben zu den benutzten Daten eine
    entscheidende Rolle ausüben können; wenn die Verlässlichkeitsangaben nun nicht erwähnt werden und nicht ausgewertet
    werden (wie bei G&M), ist das bedenklich.

    Diesen Kommentar: Zitieren
  39. #889 | galileo2609 | 19. Juli 2011, 23:44

    Uebbing,

    Rudolf Uebbing | 19. Juli 2011, 23:29
    Man schaue sich einmal die Fehlerbäume in einer deutschen
    Studie zur Kernkraftsicherheit an – da sehe ich, was
    Professionalität in der Sicherheitsanalyse tatsächlich bedeutet.

    in KKW trifft Anlagensicherheit auf theoretisches und praktisches physikalisches Erfahrungswissen. Mit einer solchen Risikoanalyse kalkuliert man, ob die Auslegung einer solchen Anlage technisch mit den bekannten physikalischen Prozessen unter Einwirkung interner und externer Störungen klar kommt.

    Würden sie für den Fissionsprozess ähnliche exotische Vorgänge an die Wand malen, wie sie das im Falle des LHC machen, wären diese Risikoanalysen in ihrem Weltuntergangsszenario das Papier nicht wert, auf das sie geplottet wurden. Auch in einem solchen Fall würde nur die Physik helfen. So wie es die LSAG vorgemacht hat.

    galileo2609

    Diesen Kommentar: Zitieren
  40. #890 | Rudolf Uebbing | 20. Juli 2011, 07:59

    Hier am Rande eine Frage an Solkar:

    Nun möchte ich einmal hervorheben,
    dass oben drei ziemlich engagierte Menschen
    (meine: Herrn Kannenberg und einen Herrn
    mit Nicknamen „Solkar“ u. mich)
    mit unterschiedlichen Ansichten,
    welche immerhin je eine marginale, unbedeutende Fehlerhaftigkeit
    in den von CERN-Wissenschaftlern veröffentlichten Texten
    gefunden haben, sich mit LHC-kritischen Einwänden
    beschäftigen.

    Dies zeigt lediglich die Intensität der Beschäftigung
    der Genannten an, denn es ist nicht leicht,
    formelle Fehler höchstqualifizierten Forschern nachzuweisen;
    wie man sich vorstellen kann,
    werden formelle Flüchtigkeitsfehler in deren publizierten
    Fachausarbeitungen nur äusserst selten vorkommen.

    Hier die Frage an Solkar:

    Ich möchte eigentlich davon ausgehen,
    dass Sie derselbe Solkar sind,
    der eine Grafik zu Doppelsternsystemen
    mit Neutronensternpartner (publiziert bei Achtphasen)
    gefertigt hatte, welche seinerzeit nahe legen sollte,
    dass einige Überlegungen von Giddings und Mangano nun
    doch nicht abschließend so sicher sind,
    wie diese beiden Physiker einen Eindruck hervorrufen.

    Ist es richtig, dass Sie zwischenzeitlich
    einen Irrtum in Ihrer eigenen LSAG-Kritik
    (wenn ich Ihre damaligen Einbringungen so deuten darf)
    entdeckt haben und wo haben Sie gegebenenfalls
    davon berichtet ? (Die genaue fachliche Erkenntnis
    ist inhaltlich intereressant).

    Das von Herrn Kannenberg genannte Kapitel 9 will ich
    heute nochmal sichten.

    Diesen Kommentar: Zitieren
  41. #891 | Hans | 20. Juli 2011, 08:30

    Ich gehe davon aus, dass eine entsprechende Grafik, die detailliert die Schlussfolgerungsketten
    bei G&M darstellt, ziemlich umfangreich ist;

    Sie ******** haben also offensichtlich noch nicht einmal begonnen, das Paper einmal gründlich zu lesen und auszuwerten. Von ihrer an *********** teils nicht zu überbietenden Rosinenpickerei einmal abgesehen.

    Es ist schon ziemlich armselig, drei Jahre lang immer nur schwammig irgendetwas zu fordern, selbst diese Arbeit aber nicht einmal in Angriff zu nehmen. Sie geben also jetzt im Grunde offen zu, nicht einmal genau zu kennen, was Sie angreifen. Dem Sie implizit Schummelei unterstellen.

    Das ist nicht mehr nur armselig.

    Moderiert durch RelativKritisch Redaktion.
    Diesen Kommentar: Zitieren
  42. #892 | Solkar | 20. Juli 2011, 09:58

    @Rudolf Übbing:

    Sie glauben doch wohl nicht allen Ernstes, dass ich ausgerechnet mit Ihnen über Physik sprechen wollte.

    Ferner stellen Sie mir hier keine Fragen, Sie beschäftigen sich am besten zunächst mal mit den Hinweis von

    Hans vom 14. Juli 2011, 00:17

    Uebbing, mal nicht vergessen, Sie sind noch einige Antworten schuldig zu Rössler, dunkler Materie, GRBs usw.

    – insbesondere hinsichtlich der „causa Rössler“.

    Falls Sie jenem Agitator nämlich immer noch Luft zufächelten, so unterstützten Sie damit zugleich seinen neuesten Walkürenritt wider die wissenschaftliche Diskussionskultur im Allgemeinen (z.B. ebd. Eintrag vom May 28, 2011) und wider Arithmetik und MINT im Besonderen (dto).

    Dazu mach ich Ihnen ggf. dann mal ne Skizze. In Farbe. Und bunt.

    @galileo2609:

    Hallo!

    Sie (oder „Redaktion“) hatten weiland im Zshg mit der Abbildung der Tübinger prima causa in den Nullraum mich als „Brutus“ bezeichnet, der nur „Cäsar anstelle Cäsars“ werden wolle.

    Abgesehen von der Frage nach der historischen Konsitenz der Metapher, glauben Sie wirklich dass, ich Wert darauf legen würde, diese traurige Truppe (Fassnacht, Übbing et al.) zu befehligen?

    Wer die als Mitstreiter hat, braucht keine Gegner mehr.

    Insofern betrachte ich die Zusammenrottung rund um Markus G. als ein Form der poena naturalis für ihn für eben diese
    galileo2609 schrieb um 14. Juli 2011 um 21:24

    1. […] Wie man am Gründer der ‘Wiener Initiative’ feststellen kann, hat diese Truppe auch keine Skrupel, ihre Agitationen in die Anti-AKW-Bewegung (Stichwort: “subnuklearer Reaktor”) einzuspeisen, um sich dort politische Mehrheiten gegen die Grundlagenforschung zu verschaffen.

    Entgleisung. (Ich stimme Ihnen übrigens zu; es geht nicht an, die Tragödie von Fukushima zu instrumentalisieren.)

    galileo2609 schrieb um 14. Juli 2011 um 21:24

    Und 3. ist es einfach ein Reflex auf diese Verhunzung der deutschen Sprache, den ich nicht unter Kontrolle bekomme.

    Es ist wahr, man möchte brechen.

    Mittlerweile ist es ferner nicht mehr nur die Form der Beiträge, sondern dem Inhalt nach scheint Herr Übbing jetzt auf den bürokratischen Kältetod jedes forschenden Geistes hinzuarbeiten.

    Wenn seine „Verordnungen“ umgesetzt würden, würden die Professoren in Genf, CA usw nur noch Formulare ausfüllen statt zu forschen – in A L T G R A D und Pica 9pt auf DINA5 quer mit drei Durchschlägen. In „Übbingsch“ und auf Dreisatzniveau runtergebrochen, versteht sich…

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  43. #893 | Solkar | 20. Juli 2011, 10:07

    @Red: ich hatte grade zweimal versucht, einen längeren Beitrag abzusetzen; hängt der jetzt in irgendeiner queue?

    Diesen Kommentar: Zitieren
  44. #894 | Rudolf Uebbing | 20. Juli 2011, 10:16

    An Hans: Wollen wir nicht besser davon ausgehen,
    dass wir es w o h l w o l l e n d miteinander meinen / sollten ?

    „Enemy pictures“ are out of date.

    Wie ich behaupten will, übersteigert es die Leistungsfähigkeit
    einzelner Forscher oder sehr kleiner Gruppen,
    – wenn die moderne Physik in das Naturgeschehen aktiv eingreift,
    dabei neue, äusserst extreme Grenzen erreicht und tatsächlich technisch auch überschreitet –
    die tatsächliche Bedeutung dessen präzise
    (probalistisch) zu erfassen, auszuwerten und in Resultate
    umzusetzen;
    dazu bedarf es wesentlich mehr Informationen,
    welche vorhanden sind, genauestens einzubeziehen –
    ein sehr arbeitsträchtiges Vorgehen.

    Die Gewichtigkeit und Bedeutung dessen,
    was diskutiert wird, ist in jedem
    Fall den hohen Aufwand wert.

    Niederländische Richtlinien für Grenzrisikofestsetzungen
    geben einen ersten Eindruck, welche ausserordentliche,
    schwergewichtige Bedeutung die derzeitige Entwicklung in der Hochenergiephysik haben kann.

    Wie sagte Konfuzius – wir wissen nicht, ob ein Gott
    tatsächlich existiert, also lasset uns ihm ein Opfer bringen –
    dieses Opfer bedeutet nach meiner Auslegung konkret:
    Angemessenen Aufwand bei einer Sicherheitsbeurteilung zu
    betreiben.
    Dafür treten etliche kritisch und aufmerksam denkende
    Menschen ein; die Menge der international vorgebrachten
    Klagen macht dies klar.

    Diesen Kommentar: Zitieren
  45. #895 | Hans | 20. Juli 2011, 10:54

    Es überfordert Sie also seit drei Jahren, endlich das Paper zu lesen und beispielsweise Ihren Baum daraus zu zeichnen?

    Ist Ihnen das nicht selbst ein wenig peinlich?

    Diesen Kommentar: Zitieren
  46. #896 | Karl | 20. Juli 2011, 11:14

    Solkar schrieb 20. Juli 2011, 10:07:
    @Red: ich hatte grade zweimal versucht, einen längeren Beitrag abzusetzen; hängt der jetzt in irgendeiner queue?

    Hier ist nichts angekommen, ausser des zitierte Kommentars.

    Diesen Kommentar: Zitieren
  47. #897 | Rudolf Uebbing | 20. Juli 2011, 12:25

    Nochmal zum Aufwand einer p r o b a l i s t i s c h orientierten Sicherheitsanalyse,
    zu welcher genau die meinerseits vermissten Verlässlichkeitsangaben der zugrundeliegenden wissenschaftlichen Erkenntnisse explizit herangezogen, berücksichtigt und ausgewertet werden:

    Bedenken Sie doch bitte, dass nach ca. zwei Jahrzehnten Planzeit und
    Bauzeit des LHCs der LSAG-Report 2008 etwa erst
    drei Monate vor der Inbetriebnahme des Colliders im Sept. 2008
    erschien – da war nicht mehr viel Zeit, eine feingliederige
    probalistische Sicherheitsanalyse zu erstellen; dies
    passt zu der kurz davor erschienenen Arbeit von Giddings
    und Mangano („Astrophysical Implications …“),
    wobei die zusätzliche Arbeit zu einer aufwendigen Feinanalyse der Verlässlichkeitsangaben
    ( = z.B. Standardabweichungen zu den zugrundeliegenden
    Fachdaten) einen möglichen Verzug zur rechtzeitigen
    Veröffentlichung eines Sicherheitsnachweises noch vor dem
    Collider-Start in 2008 bedeutet haben kann.

    = : Meine persönliche Sicht – prüfen Sie doch, bitte.

    Diesen Kommentar: Zitieren
  48. #898 | ralfkannenberg | 20. Juli 2011, 12:37

    Sehr geehrter Herr Uebbing,

    das ganze scheint mir eher eine grundsätzliche Diskussion zu sein, die nichts mit dem Teilchenbeschleuniger zu tun hat: Wann ist ein probabilistischer Ansatz sinnvoll und wann ist es sinnvoll, direkt nachzurechnen.

    Bevor man aber diese grundsätzliche Überlegung anstellt, eine Frage: teilen Sie die Ansicht, dass eine direkte Nachrechnung immer ein verlässlicheres Resultat ergibt als eine auf vielen Unsicherheiten beruhende Wahrscheinlichkeitsrechnung, die aufgrund der Unkenntnis blackbox-mässig auch Dinge berücksichtigen wird, die überhaupt keine Rolle spielen ?

    Wenn ich wissen will, ob ein Mensch in 10 Minuten zu Fuss (also natürlich, indem er sehr schnell rennt) von Basel nach Hamburg gelangen kann, dann genügt es völlig, die Höchstgeschwindigkeit, die ein Mensch z.B. über 10 Kilometer erreichen kann, sowie den Abstand Basel-Hamburg einzusetzen; dazu braucht es keine Risikoanalysen, die berücksichtigen, dass (1) ein Mensch über 100 m schneller läuft, dass es (2) ein Paradox zu geben scheint, dass der Weltrekord über 200m schneller ist als zweimal der Weltrekord über 100m, dass (3) die Erde gekrümmt ist, dass (4) Massen überdies die Raumzeit krümmen, (5) …

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  49. #899 | Hans | 20. Juli 2011, 13:05

    prüfen Sie doch, bitte.

    Sie meinen, dass hier Defizite mit gravierenden Folgen vorliegen könnten. Es ist an Ihnen, das zu zeigen. Und zu prüfen.

    Wie lange wollen Sie noch warten?

    Diesen Kommentar: Zitieren
  50. #900 | Solkar | 20. Juli 2011, 13:42

    ralfkannenberg schrieb am 20. Juli 2011 um 12:37

    Wenn ich wissen will, ob ein Mensch in 10 Minuten zu Fuss […] von Basel nach Hamburg gelangen kann, […], dazu braucht es keine Risikoanalysen

    Falsch. Da Herr Fassnacht ein möglicher Proband ist, werden wir in Hamburg selbstverständlich Risikoanalysen durchführen…. 😉

    Diesen Kommentar: Zitieren

Kommentare sind geschlossen.