Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1998Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Kommentare sind geschlossen.
Vielen lieben Dank für Ihre Anstrengungen,
die leider im Kern falsch sind – warum ?
„Thus … the probability of a vacuum transition at
RHIC is bounded by 2×10E-36.“ –
Klarer geht es nicht!
Ein Zitat von Jaffe, Busza et al, was
Ihrer Meinung nach diese Forscher hätten gar
nicht schreiben dürfen.
Sie sind damit beschäftigt, Jaffe, Busza et al einen
Fehler nachzuweisen.
Wir reden über eine empirisch gesicherte
Nachweisgrenze zu Teilchenkollisionen,
zu denen kein vollständiges Wissen vorliegt und
von deswegen in einem ungünstigen Fall
ein ausgelöster Vakuumübergang nicht ausgeschlossen
werden kann (darf) – dies
gilt es bei künstlichen Teilchenkollisionen
mitzuberücksichtigen.
Für eine einzelne derart starke Teilchenkollision
begrenzen Jaffe, Busza et al die
Wahrscheinlichkeit für einen Vakuumsübergang
auf einen Wert von bis zu 1E-47; das ist
der konkrete Erfahrungswert, der auf der „sicheren Seite“
liegt. Warum ? Wir haben kein vollständiges Wissen.
Richtig ist – wir stimmen überein -,
bei 1E47 Teilchenkollisionen
konnte kein einziges bislang einen Vakuumübergang auslösen,
unsere Existenz verdeutlicht dies.
Dies sagt n i c h t aus, dass ein derartig ausgelöster
Vakuumübergang unmöglich ist
(Das jedoch genau wollen Sie hier vermitteln.).
Sicher ist jedoch nicht,
dass in Kürze eine Teilchenkollision dabei ist,
die völlig Neuartiges auslöst, ggf. eine Teilchenkollision
mit der Nr. 1,1*E47 + 1, also z.B. nach dem Ablauf
einer weiteren Milliarde Jahren.
Das haben Sie hier leider nicht verständlich machen können.
Jaffe, Busza et al sind hier, wie ich meine
zu Recht, weitaus vorsichtiger.
Nun, Sie finden einen einfachen mathematischen
Formalismus in den Referenzen des LSAG-Reportes 2008,
der meine Interpretation verdeutlicht – ich komme
darauf zurück. – Räumen Sie mir bitte als Web-Administrator die Möglichkeit dazu ein.
(Auch will ich beiläufig darauf aufmerksam, dass Sie keine
Beschimpfungen in wissenschaftlichen Arbeiten vorfinden –
daraus kann gelernt werden.)
Seit Milliarden Jahren wird beobachtet, daß die Sonne jeden morgen aufgeht. Dies konkludiert nach Uebbing keineswegs zwingend gesichertes Wissen über das Geschehen in der Zukunft.
Sie haben nichts von dem verstanden, was Sie da als „klar“ bezeichnen.
Jetzt kommt aber der komplette Realitätsverlust. Es ist anders herum, Sie versuchen Jaffe et al etwas in den Mund zu legen, was diese nicht geschrieben haben.
Was Sie da jetzt fabrizieren, ist doch der letzte Strohhalm, geradezu peinlich. Jetzt könnte es natürlich wieder sein, dass in Zulunft doch noch ein Vakuumübergang stattfinden könnte. Könnte. Möglicherweise. Vielleicht.
Ja, Uebbing, kann sein. Aber weniger wahrscheinlich, wie das Ausbleiben des Sonnenaufgangs morgen.
Schön, hier ‚Solkar‘ zu lesen!
Ich schmücke mich wirklich nicht gerne mit fremden Federn und habe darum Herrn Plaga’s Szenario bei meinen Bemühungen die Enceladus Anomalie als Risikoindiz zu erläutern aussen vor gelassen.
‚Solkar‘ hat in schwierigem Dialog auf achtphasen ‚MAC‘ dazu gebracht, zuzugestehen, dass dessen ‚Widerlegung‘ plagascher MSL-Szenarien gar keine ist und dass des Herrn Dr. Plaga’s Warnung vor am Eddington-Limit permanent Materie in Strahlung transformierender MSL-Relikte somit noch immer als nicht-widerlegt anzusehen ist.
Frage an ‚Solkar‘ ob auch er/sie es für nicht ausschliessbar (also zumindest denkbar/möglich) erachtet, dass EIN (auf natürlichem Weg nur vergleichsweise doch sehr selten entstehendes MSL aus lhc-ähnlicher ((beinahe) symetrischer) Kollision zweier Teilchen (lhc-ähnlich hochenergetischer) kosmischer Strahlung (mit relativ zum Sonnensystem geringem Impuls) in des Enceladus Südpolregion gelangt ist … und dort das (eigentlich tiefstgefrorene) Waser derart aufgewärmt hat, dass dort die nun beobachtbaren aber entsprechend ‚alter‘ Physik (noch) unerklärlichen Phänomene getriggert worden sind?
Gute Grüsse!
Oha! hier ist zwischenzeitlich (während der Formulierung meiner Frage an ‚Solkar‘) gar viel Text entstanden …
meine Frage an ‚Solkar‘ bezieht sich auf dessen Beitrag: http://www.relativ-kritisch.net/blog/lhc-widerstand/otto-e-rossler-anthologie-eines-weltratsellosers/comment-page-17#comment-4068
@ Quentin:
Die einfache, klare Darstellung bei Jaffe, Busza et al –
wie kann man dies nur missverstehen ?
Die Kleinheit der Zahlenwerte zu der Wahrscheinlichkeitsobergrenze (2E-36 im Falle des RHIC) ist in inhaltlicher Übereinstimmung mit umgangssprachlich
Sätzen wie „Seit Milliarden Jahren wird beobachtet, daß die Sonne jeden morgen aufgeht.“ –
Wir sollten doch froh sein, dass hier von Jaffe, Busza et al eine
konkrete Quantifizierung erreicht worden ist, die hilft,
das Geschehen möglichst r e a l i s t i s c h zu betrachten, d.h. in einem Modell
zu beschreiben, welches es gilt, weiter auszubauen.
Uebbing,
mir ist ja egal, was sie glauben. Nur eins, es ging keineswegs darum, Jaffe et al. einen Fehler nachzuweisen. Ich weiss auch, dass es unmöglich ist, sie oder einen jetzt erneut wild phantasierenden achtphasen von irgendetwas zu überzeugen. Dazu haben sie sich beide viel zu sehr in ihre närrischen Ideen verrannt.
Ich wollte ihnen lediglich aufzeigen, dass sie sich mit ihren Scheinrechnungen und Pseudopräzisionen völlig verheben. Das ist kein Wunder, wenn man den wissenschaftlichen Kontext erbarmungslos vernachlässigt und lediglich Rosinenpickerei betreibt.
Ich würde mich auf so was jedenfalls nicht verlassen. Das wäre mir viel zu unsicher. 🙂
galileo2609
Ja, das sollten Sie sich mal ernsthaft fragen. Vor allem nachdem Ihnen derartig viele Hilfestellungen gegeben wurden. Nicht zuletzt von Solkar.
Hier denke ich, dass ich meine grundsätzlich
einfachen, überprüfbaren Schlussfolgerungen nicht ausreichend verständlich formuliert habe.
Vielleicht doch noch mal zur Verdeutlichung,
was die konkrete, wissenschaftliche Aussage von Jaffe, Busza et al zu den RHIC-Teilchenkollisionen bedeutet:
a) Die Wahrscheinlichkeit einer Vakuuminstabilität
infolge bestimmter Arten von Teilchenkollisionen
k a n n Null betragen. Das versuchen Sie hier als
Gesprächspartner mir zu verdeutlichen, darüber
hinaus versuchen Sie zu vermitteln, dass der wahre Wert
tatsächlich ein echtes Null ist.
b)Diese Wahrscheinlichkeit kann gem. Jaffe, Busza et
al aber mit den Werten, zum Beispiel mit
2E-37,
4E-37,
6E-37,
8E-37,
n i c h t ausgeschlossen werden.
(Grund: Unvollständiges Wissen.)
c) Wissenschaftlich ausgeschlossen werden auf empirischer
Basis Wahrscheinlichkeitswerte größer
als 2E-36 für eine Vakuuminstabilität verursacht
durch das RHIC-Experiment.
Ein absurd kleiner Wert, der dennoch genauestens
zu bewerten ist, wenn die Gewichtigkeit
des Geschehens miteinbezogen wird.
Das Temperaturäquivalent bei den LHC-Kollisionen
(Protonen/Protonen- und Schwerionenkollisionen)
übertrifft das entsprechende Äquivalent in
bekannten Supernovae (Maximumsangabe: 500 Milliarden
Grad); man muss bis 1 Millionstel einer Millionstelsekunde sich den Big-Bang-Bedingungen
nähern, um entsprechend physikalisch extreme Zustände wiederzufinden.
Die Ausserordentlichkeit besteht darin, dass
zwei gleichschnelle Teilchen sich frontal begegnen und
die Kollisionsprodukte andere Restimpulsverteilung aufweisen als
im Falle der Kosmischen Strahlung; im Innern
eines astronomischen hochkompakten Objektes
kann dies gleichgültig sein, nahe der Erdoberfläche
sieht die Situation anders aus.
Uebbing, das die Null gerechtfertigt ist, erkennt jeder, der einml den betreffenden Satz übersetzt und vmit Verstand liest.
Und im LHC begegnen sich keine harten Teilchen frontal, Sie dreckiger Agitator. Diese Bezeichjnung ist gerechtfertigt aufgrund fortgesetzter Missachtung der wahren Bedingungen im Experiment.
Bezüglich der Vakuumgeschichte ist das Wissen aber sowas von vollständig….wie beim Sonnenaufgang.
Ich komme zum Schluss, Sie sind borniert, schlicht zu dumm, um dies nachzuvollziehen. Nicht mal die benannten Analgien (Würfel, Sonnenaufgang etc) haben gefruchtet.
Halten Sie einfach in Zukunft die Klappe, wenn es um Physik geht, das würde Ihnen so manche Peinlichkeit ersparen. Physikalische Argumentationen setzen mehr voraus als nur Wörter aus Artikeln zu picken. Man sollte auch verstehen, das dort steht.
@Quentin:
Zu den geometrischen Verhältnissen bei der Teilchenkollision
bei gegenläufigen Teilchenstrahlen:
Lesen Sie selbst nach – Frontalkollisionen gibt es auch im
Straßenverkehr, die wesentlich weniger präzis gegeneinander ausgerichtet sind als in den vier LHC-Experimenten –
der Kollisionswinkel beträgt dort zeitweise 0,01 Grad (Altgrad, 360 Grad -Kreisteilung) –
wenn das nicht die Bezeichnung „frontal“ verdient ?
@Quentin:
Vielleicht überdenken Sie Ihre unwissenschaftliche Schimpfe ?
Vielleicht überdenken Sie Ihre unwissenschaftliche Schimpfe ?
Wissen Sie, Ihnen als miesem Agitator gegenüber, der seine Argumente ohne Sinn und Verstand zusammempickt, ist das mehr als angemessen.
Eher noch beschönigend.
Zu Frontal:
Sie gehen implizit immer von sich komplett neutralisierenden, perfekt frontalen Kollisionen aus in Ihrer Spinnerei. Das ist am LHC nicht der Fall. Ein weiterer Fall billiger Agitation, da Ihnen das schen oft gesagt, teils gerechnet wurde. Sie ignorieren es. Somit dreckiger Agitator.
Sie können ja mal ausrechnen, welche Auswirkungen bei den betreffenden Energien diese kleine Abweichung hat. zeigen Sie doch mal, daß dies vernachlässigbar ist, wie Sie suggerieren.
Falsch:
„Sie gehen implizit immer von sich komplett neutralisierenden, perfekt frontalen Kollisionen aus …“ (Zitat / Quentin)
Richtig:
Ich wünsche computerisierte Modellsimulationen zu einigen
physikalischen Behauptungen. – Bei bis zu 600 Millionen
Kollisionen pro Sekunde ist die Überdeckungswahrscheinlichkeit
von miteinander agierenden, wirksamen Querschnitten interessant –
die Restimpulsverteilung ist nicht trivial; sie ist selbstverständlich untersucht,
aber es wird nur wenige Risikoforscher geben, die wichtige
entscheidende Angabe gezielt ohne Hilfe aus den Analysen herausziehen können;
ich wünsche eine Risikoanalyse, die
methodisch dem aktuellen Stand der Risikoforschung bestmöglich
entspricht. Physiker sind nun mal keine Risikoforscher und können
daher fachlich hier nicht voll mithalten; verständlich muss sein,
dass angesichts der ausserordentlichen Risikobedeutung die Forderung naheliegend ist, die Analyse einem Risikoforschungsinstitut zu übertragen,
wo Physiker dann ihr Spezialwissen einbringen.
Gestern konnte nachgelesen werden,
dass ein physikalisches Beobachtungsergebnis den 50-fachen Prognoswert
des Standardmodelles der Teilchenphysik signifikant verläßlich übertrifft –
eine vernünftige Forderung ist hier sofort erkennbar:
Nach Anpassung der Theorie an die aktuelle Beobachtung ist der kritische Parameterraum,
welcher speziell zu Risiken denkbar ist, neu zu kalkulieren
und das Experiment demgemäß abzuklopfen und ggf. neu
anzugleichen (z.B. kleinere Energiestufungen
im Sinne einer Risikominderung einzuführen; dies ist
nicht meine Idee).
Die von mir oben oben erwähnte Signifikanz einer physikalischen
Aussage – als für einen bestimmten Zweifel
an der Vollgültigkeit des Standardmodelles der Teilchenphysik
meinerseits (unmaßgeblich!) als verläßlich eingeschätzt –
in einer aktuellen Meldung über eine
auffällige physikalische Beobachtung im Standardmodell
quantifiziere ich hier noch nachträglich, wie unten im Weblink angegeben:
Wahrscheinlichkeit für ein nur zufallsbedingtes
Resultat: 1/200 Prozent, nämlich dass auffällig mehr Myonen
als Antimyonen am Tevatron registriert wurden.
sh.
http://www.astronews.com/news/artikel/2011/07/1107-017.shtml
Daraus:
„Diese Abweichung ist 50-mal größer als vom Standardmodell
der Elementarteilchen vorhergesagt wird.
Bei der aktuellen Studie handelt es sich
um eine Aktualisierung der Analyse des letzten Jahres:
Inzwischen konnten rund 50 Prozent mehr Daten analysiert
und damit die Unsicherheit des Ergebnisses verringert werden.
Die Chance, dass es sich bei dem Effekt um einen
statistischen Zufall handelt, liegt nun bei etwa 0,005 Prozent
und hat damit den Status eines starken Hinweises auf eine
wissenschaftliche Entdeckung. Allerdings spricht man in der
Wissenschaft erst bei 0,00003 Prozent und
bei unabhängiger Bestätigung durch andere Experimente von einer
echten Entdeckung.“
Nun, in diesem Zusammenhang wurde vor Monaten einiges als voreilig
gekennzeichnet, muss ergänzt werden.
Für Zweifel müssen, wie ich meine, andere (niedrigere)
Signifikanzschwellen gültig sein, als für die
Anerkennung von Entdeckungen.
Oh doch, das tun Sie. Sonst würden Sie so einiges gar nicht erst schreiben.
Sie haben übrigens immer noch nicht kapiert, daß die vorliegenden Sicherheitsanalysen davon nicht mal betroffen sind.
Die gehen weit darüber hinaus. Ihre ganzen Bandwurmbeiträge sind nicht nur absolut inhaltsleer, sie gehen auch noch an der Sache vorbei. Seit Jahren.
Ich will versuchen, kürzer und
verständlicher zu formulieren.
Hallo zusammen,
ich will einmal eine solche Mini-Zahl wie 10**(-36) veranschaulichen:
Wie gross ist die Wahrscheinlichkeit, dass alle Menschen übersehen haben, dass die Summe der natürlichen Zahlen 2 und 3 gar nicht 5 ergibt ?
Ich treffe zur Berechnung dieser Wahrscheinlichkeit folgende Annahmen, die allesamt zur absurd sicheren Seite hin abgeschätzt sind:
1. pro Generation gibt es 10 Mrd Menschen
2. eine Generation dauert nur 10 Jahre
3. Menschen gibt es seit 10 Mio Jahren, d.h. es gibt 1 Mio Generationen
Somit haben auf der Erde bislang maximal (10**6 Generationen) * (10**10 Menschen pro Generation), also 10**16 Menschen gelebt.
Des weiteren nehme ich an, dass
4. jeder Mensch obige Rechnung bzw. den zugehörigen Beweis ohne Ermüdung in jeder Sekunde seines Lebens einmal überprüft hat
5. jeder Mensch über 1000 Jahre alt wird
Der Bequemlichkeit halber runde ich alle Umrechnungen Sekunden->Minuten->Stunden->Tag->Jahr auf die volle Zehnerpotenz auf (alles zur sicheren Seite hin !), d.h.
1000 Jahre < 1000*1000 Tage < 1000*1000*100 Stunden < 1000*1000*100*100 Minuten < 1000*1000*100*100*100 Sekunden, d.h.
1000 Jahre < 10**(3+3+2+2+2) Sekunden = 10**12 Sekunden.
Ich habe also überall zur sicheren Seite hin abgeschätzt.
Somit gab es 10**16 Menschen * (10**12 Sekunden) Überprüfungen, dass 2+3 gleich 5 ergibt, also 10**28 Überprüfungen.
Nun nehmen wir noch an, dass:
6. jede dieser Überlegungen eine Irrtumswahrscheinlichkeit von nur 1:1 Mio hat (3 Grössenordnungen besser als von Ord et al. postuliert).
Dann ist die Wahrscheinlichkeit, dass sich alle Menschen bei der Aufgabe 2+3=5 ein Fehler übersehen wurde, gleich
(1 : Anzahl Überprüfungen) * Irrtumswahrscheinlichkeit, also 1: (10**28) * (1: 10**6) = (1:10**34) !!!
Selbst dieses absurde Restrisiko ist höher als die genannte Zahl bei den Vakuuminstabilitäten.
Freundliche Grüsse, Ralf
Vielen Dank für eine rein sachlich orientierte
Antwort; meine begründete Sichtweise dazu will ich
später verdeutlichen; sie beruht im wesentlichen auf Werteabwägungen bei nicht vollständigem Wissen.
Zunächst einmal gilt:
Wissenschaftlicherseits genannte, eindeutig beschriebene Wahrscheinlichkeiten,
welche eine mit ihnen verbundene bestimmte, konkret bezifferte Obergrenze meinen, sind unmissverständlich in seriösen Fachzeitschriften (mit peer review) dokumentiert.
Sehr geehrter Herr Uebbing,
bitte beachten Sie bei meiner obigen Rechnung, dass ein Restrisiko eine Zahl ist, die GRÖSSER ist als das tatsächliche Risiko. Bei meiner obigen Abschätzung indes habe ich das (Rest-)Risiko nach unten abgeschätzt, d.h. die von mir bestimmte Zahl ist KLEINER als das (Rest-)Risiko.
Freundliche Grüsse, Ralf Kannenberg
Zu #874 | ralfkannenberg | 18. Juli 2011, 15:07
„bitte beachten Sie bei meiner obigen Rechnung, dass ein Restrisiko eine Zahl ist, die GRÖSSER ist als das tatsächliche Risiko.“
– ist voll beachtet – sh. a) b) und c) i.g. Kommentar
#860 | Rudolf Uebbing | 16. Juli 2011, 12:52.
Zu der Obergrenzenaussage von Jaffe, Busza, Sandweiss, Wilczek ( =: JBSW):
Mittlerweile habe ich in der oben oft zitierten
Arbeit dieser vier Wissenschaftler die Stellen
gefunden, die die Herleitung der mit
dem Wert 2E-36 begrenzten Wahrscheinlichkeit
(RHIC bedingter hypothetischer Vakuumübergang) verdeutlichen;
diese Forscher gehen nämlich dort einen ähnlichen
Weg bei der Beurteilung evtl. kritischer Strangeletproduktion.
Die oben von mir beantworteten Fragen (mit A, B, C, …
gekennzeichnet) sind recht allegorisch –
die Herleitung des Wertes 2E-36 hingegen gelingt
konkret – ich möchte dies, wie weiter oben schon angesprochen,
im Laufe der Woche hier einmal darstellen.
Ich bedauere sehr, dass diese probalistischen Aussagen
von JBSW nicht aufgegriffen u n d angemessen vertieft werden;
wie ich meine, helfen genau sie
zu einer möglichst realistischen Situationsbeurteilung.
Die deterministisch geprägte Beurteilung von Giddings und
Mangano auf Basis vornehmlich einer Aussagenlogik
zitiert und wertet leider keine Verlässlichkeitsangaben (Standardabweichungen etc.) aus,
was in der Folge zu probalistisch orientierten Aussagen geführt hätte.
Ich behaupte: Ein federführendes Risikoforschungsinstitut
besteht auf die Einbeziehung und Auswertung der zugehörigen Verlässlichkeitsangaben – gerade Verlässlichkeitsangaben
sind Kennzeichen guter Sicherheitsanalysen; ohne
Verlässlichkeitsangaben ist schlicht eine zeitgemäße
Sicherheitsbeurteilung nicht denkbar.
Sehr geehrter Herr Uebbing,
wie neben den Ausführungen meiner Vorredner auch mein Beispiel illustriert haben dürfte, liefern wahrscheinlichkeitstheoretische Überlegungen keine guten und insbesondere auch keine verlässlichen Aussagen. Es ist in jedem Fall besser, konkrete Berechnungen durchzuführen statt sich auf letztlich sehr schwer interpretierbare und überdies auch auf viel zu ungenauen Annahmen beruhende Risikoüberlegungen zu verlassen. Letztlich kann man festhalten, dass eine Risikoanalyse erst dann Sinn macht, wenn die Komplexität einer Aufgabenstellung so gross geworden ist, dass man nicht mehr direkt nachrechnen kann. Solange man aber direkt nachrechnen kann, liefert dies ein besseres Ergebnis, und die Güte dieses besseren Ergebnisse lässt sich ebenfalls quantifizieren, sie ist nämlich anschaulich gesprochen “unendlich“ mal besser.
Der Ansatz einer wahrscheinlichkeitstheoretischen Sicherheitsüberlegung ist bei der Physik eines Teilchenbeschleunigers nicht zielführend, wohl aber bei der ingenieurmässigen Realisierung einer solchen Maschine.
Interessant bei Ihren Ausführungen indes ist die Frage nach den Signifikanz-Niveaus der den Sicherheitsanalysen zugrundeliegenden Beobachtungsdaten. Beispielsweise kann man in „The ultra-cool white dwarf companion of PSR J0751+1807“, C. G. Bassa, M. H. van Kerkwijk,
S. R. Kulkarni, 2006 (http://arxiv.org/abs/astro-ph/0601205) auf Seite 3 im 4.Absatz folgenden Satz finden:
.
Natürlich sind das Fehler im Prozentbereich, jedoch liegt die Helligkeit des Begleitsternes in der richtigen Grössenordnung und überdies sind rund 20 solcher Sternpaare Neutronenstern – Weisser Zwerg bekannt. Sie können sich ausrechnen, wie gross die Wahrscheinlichkeit ist, dass bei allen 20 Pärchen ein Vorder- oder Hintergrundstern der passenden Helligkeit gerade neben dem Neutronenstern steht.
Gehen wir der Einfachheit halber von einer 5%igen Fehlerrate pro Sternpaar aus, so ergibt das (5%)**20, also (1/20)**20; 2**10 = 1024, also ungefähr 1000, so dass eine Wahrscheinlichkeit von 1:10**26 resultiert. Bei dieser Überlegung habe ich noch gar nicht berücksichtigt, dass der gefundene Begleitstern zufällig auch die „richtige“ Helligkeit aufweist.
Freundliche Grüsse, Ralf Kannenberg
Folgenden Satz halte ich für unzutreffend – eine genau
gegenteilige Aussage hingegen halte ich für richtig:
„…liefern wahrscheinlichkeitstheoretische Überlegungen keine guten und insbesondere auch keine verlässlichen Aussagen. …“
Deterministisch orientierte Aussagen lassen sich in
aller Regel in Einzelaussagen zerlegen, wobei dann sehr schnell im
Detail klar wird, dass Einzeleinflüsse nicht beliebig
genau bestimmt sind, was zur Folge hat, dass in
solchen Fällen ja/nein-Aussagen tendenziell richtig sein
können, aber dann u n e r k a n n t e r w e i s e
(genauso schlimm: unbenannterweise) teilweise beträchtliche Irrtumspotenziale
beinhalten können, die dann gelegentlich zu einer Falschprognose
führen können.
Da halte ich es lieber mit Dr. Gerd Antes, dem Direktor des Deutschen Cochrane Zentrums,
und Dr. Norbert Pfeil, wo ich für mich klare Begründungen
nachlesen kann, dass probalistische Analysen eindeutig
mehr Aussagekraft haben als ja/nein-Resultate.
(Probalistisch orientierte Aussagen enthalten i.d.R. m e h r
entscheidende Information.)
Einfacherweise gilt:
Vorhandene Irrtumspotenziale sind ausfindig zu machen und zu benennen,
auszuloten und zu quantifizieren und auf ihre
Auswirkungen auf vermeintliche Sicherheitsresultate
hin zu prüfen – erst dann liegt ein vertrauenswürdiges
Ergebnis vor.
Warum ? Antwort: Unser derzeitiges Wissen ist definitiv unvollständig.
Wann fangen Sie denn endlich damit an, Sie Enceladus-Kasper und Meister des unscharfen Herumgesülzes?
Genau das, was Sie hier anmerken, haben Sie eben noch nie getan. Sie haben nicht mal ansatzweise auch nur irgendeine Schwäche an den vorliegenden, Ihrem Gesülze weit überlegenem Papern und Reports aufzeigen können. Sie sind ein Versager, der gerne in elendig langen, die deutsche Sprache verhunzenden Bandwurmsätzen lauwarme Luft in die Welt pustet. Sie suggerieren permanent, es wäre „geschummelt“ worden (ja, das suggerieren Sie, egal ob Sie es explizit sagen oder nicht, Dummschwätzer!), haben in drei Jahren nichts, absolut nichts handfestes dazu liefern können. Es ist sogar eher fraglich, dass Sie die betreffenden Paper überhaupt gelesen haben.
Weniger wohlwollend kann man das schon fast als üble Nachrede bezeichnen.
Bitte, weiter zu Kommentar #877 | ralfkannenberg | 18. Juli 2011, 18:43:
Vielen Dank, dass Sie hier einen konkreten Ansatz
für eine probalistisch orientierte Analyse einmal
ziemlich praktisch demonstrieren.
Wie ich im Sinne einer probalistisch orientierten Untersuchung
mir wünsche, wäre es gut,
– dass
a) die Schlussfolgerungskette von
Giddings und Mangano einmal formalistisch, also z.B.
in einem Abkürzungsschema, dargestellt werden sollte;
evtl. in einer grafischen Darstellung, in einem
Entscheidungsbaum, der hilft zu erkennen, ob etwas
übersehen wurde etc. ;
– klarzustellen, ob und dass
b) jede Schlussfolgerung bei G&M in der logischen
Schlussfolgerungskette verbunden ist
mit z.B. astronomischen Beobachtungen,
(welche Beobachtungen denn genau mit welcher quantifizierten
Verlässlichkeit explizit an einem Verzweigungspunkt
herangezogen werden)
um die Vollgültigkeit einer Schlussfolgerung oder deren tatsächliche Qualität nachzuweisen;
– sich bewusst zu machen, dass
c) die Verlässlichkeit jedes einzelnen Schlussfolgerungsschrittes
von der Qualität u. Quantität der vorliegenden, zugehörigen
Beobachtungen abhängig ist,
z.B. von einer derartige Überlegung,
wie Sie sie freundlicherweise hier vorgestellt haben
(bei bestimmten Doppelsternen).
Da physikalische Beobachtungen einen Zufallsfehler haben,
bleiben kleine Fehlerhaftigkeit letzten Endes i m m e r über;
z.B. gilt es, diese auf ihre Auswirkungen zu untersuchen,
wenn man ein ausserordentliches Risiko wie das diskutierte
analysiert. Zudem wissen wir, dass neben zufälligen
Fehlern noch Fehler systematischer Art existieren und sogar
grobe Fehler vorkommen können.
Ich erinnere an T. Ord et al,
welche weitere Fehlerquellen in Theorien,
in Modellen und in Berechnungen sehen (hier sind wir vornehmlich
beim Punkt Kalkulation).
Dazu muss man auch verstehen,
dass probalistische Untersuchungen
m e h r an Informationen bedürfen,
als deterministisch geprägte,
vornehmlich auf Aussagenlogik beruhende.
Mehr Information ist hier besser als zu
wenig Information zugrunde zu legen.
Die Wahrscheinlichkeitslogik lässt sich sehr einfach
in Aussagenlogik umsetzen,
wenn man die tatsächlich gegebenen Wahrscheinlichkeiten
(oft nahe bei Null oder bei Eins)
durch die Werte exakt Null oder exakt Eins ersetzt –
dann ist klar, dass man
wie von selbst ein perfektes Sicherheitsbild gewinnt,
was leider täuschen kann, weil Informationen einfach
beiseite gelassen wurden.
Das ist meine methodisch bezogene Kritik
an Giddings und Manganos Arbeit – da lobe
ich mir die Arbeit von Jaffe, Busza, Sandweiss und
Wilczek aus 1999, welcher letzterer ja später für seine
QCD-Erkenntnisse einen Nobelpreis bekommen hat.
Letzten Endes – dies ist mein Eindruck –
gehen Giddings und Mangano implizit von einer bestimmten
Vollständigkeit des Wissens aus,
welche aber tatsächlich n i c h t vorliegt,
und erklären einen tatsächlichen Fast-Nullwert
als einen Nullwert
oder konkludent als nicht untersuchungswürdig;
dies bei der Ausserordentlichkeit dessen,
was an besonderem Risiko zu diskutieren ist –
wie andere kritische Menschen und ich finden,
wird diese Verkürzung den gegebenen Anforderungen
nicht gerecht.
Wie die Beurteilung der Vakuumsinstabilität aufzeigt,
hat der vom CERN-Generaldirektor Dr. Heuer sehr gelobte Physiker
Don Lincoln definitiv unrecht,
wenn er Risiken mit „exakt Null“
i.V.m. dem LHC beschreibt,
wenn tatsächlich ein Restzweifel
streng wissenschaftlich bis zum maximalen
Wert 2E-36 als Risikoobergrenze nicht auszuschließen(sh. JBSW, RHIC-Fall).
Was berechtigt den Physiker Don Lincoln aus einem kleinen Wert
einer nicht widerlegter Unsicherheit
eine völlige Gewissheit abzuleiten (?) –
ich empfinde dies als unwissenschaftlich.
Das worst-case-Prinzip darf hier nicht
stillschweigend verlassen werden.
Uebbing,
von diesem Ideal sind sie immer noch meilenweit entfernt. Wenn sie das nicht in den nächsten Kommentaren von alleine hinbekommen, werde ich nachhelfen müssen. Ich bin ihr sinnfreies Geschwurbel endgültig leid.
galileo2609
Herr Übbing,
z.B. das hier
Rudolf Uebbing schrieb am 18. Juli 2011, 23:12
ist doch eigentlich eine Arbeit, die Sie selbst leisten können sollten, oder?
Grüsse,
S.
Sehr geehrter Herr Uebbing,
das nutzt dort aber leider nichts, weil T.Ord et al. einen ohnehin schon ausgezeichnet abgeschätzten Term noch etwas besser abschätzen. Die Autoren versäumen es, diese Aufteilung im nur schlecht abschätzbaren zweiten Summand der Bayes’schen Formel einzusetzen, und wenn Sie es einmal selber versuchen, sehen Sie auch sofort, warum: Es resultieren nämlich völlig unübersichtliche Ausdrücke, die keinerlei Vereinfachung darstellen. Dieser Ansatz funktioniert also für extrem kleine Wahrscheinlichkeiten, die im Eintrittsfalle eine hohe Auswirkung haben, leider nicht.
Freundliche Grüsse, Ralf Kannenberg
Bitte, nur kurz zu den vorhergehenden Kommentaren
a) Lange Sätze versuche ich zwecks besseren Verständnisses
zu kürzen.
b) Für konstruktive Ideen will ich aufnahmebereit sein.
c) Zu T.Ord et al.:
Die von diesen Autoren skizzierte rechnerische
Behandlung von bestimmten Ungewissheiten halte ich für entwicklungsfähig;
hier will ich nur die grundsätzlichen Fehlerquellen nochmal nennen –
kurz TMC: Theorie, Modelle, Kalkulation.
Wie dies detailliert, methodisch verfeinert und
pragmatisch nutzbar gemacht werden kann, dazu liegen
sicherlich bereits einige Erkenntnisse (Analyseverfahren) bei Risikoforschungsinstituten vor, wie ich meinen darf.
Als Laie steht man vor einem Berg von Kenntnissen,
die es gilt, von Expertenhand im Sinne des obligatorischen
Vorsorgeprinzipes hier gezielt auszuwählen und anzuwenden.
Die Mühe, hier ein feingliedriges probalistisches Modell
zu entwickeln und nutzbar zu machen, übersteigt
die Kraft einzelner, weniger Personen oder kleiner
Gruppen – wie zu erleben;
dennoch wird es im vorliegenden Fall zur Realisierung bedeutend
aussagekräftigerer Sicherheitsbeurteilungsverfahren
in der Zukunft kommen.
Sehr geehrter Herr Uebbing,
ich glaube nicht, dass das die Kraft einzelner übersteigen würde; es würde m.E. genügen, die zuständigen Risikoforschungsinstitute mit Personen vom Fach und nicht mit Philosophen zu besetzen. Ich habe gewiss nichts gegen selbsternannte Risikoexperten, doch sollte deren Know-How wenigstens das Niveau eines Gymnasiasten im Leistungskurs Mathematik erreichen.
Freundliche Grüsse, Ralf Kannenberg
@Rudolf Übbing.
Rudolf Uebbing schrieb am 19. Juli 2011 um 13:16
Das wäre zwar neu, aber … wayne?
Wem, ausser Ihnen selbst, sollte daran gelegen sein, dass Sie für etwas „aufnahmebereit“ sind?
Das pdf zu [1] hat ein Inhaltsverzeichnis, strukturierte Gleichungsnummerierung und navigierbare Querverweise; wenn Sie sich ergänzend Bildchen malen müssen, um der Argumentation folgen zu können, ist das Ihre Hausaufgabe und niemandes sonst.
Grüsse,
S.
[1]Giddings, S. B. and Mangano, M. L, „Astrophysical implications of hypothetical stable TeV-scale black holes“, 2008, arXiv:0806.3381v2 [hep-ph]
Ergänzend zu Solkar sei noch auf das Kapitel 9 von [1] verwiesen, in dem eine Fallunterscheidung getätigt wird, die für den Anfang durchaus hilfreich sein dürfte und aus denen sich die gewünschten „Schlussfolgerungsketten“ herleiten lassen.
Freundliche Grüsse, Ralf Kannenberg
Man schaue sich einmal die Fehlerbäume in einer deutschen
Studie zur Kernkraftsicherheit an – da sehe ich, was
Professionalität in der Sicherheitsanalyse tatsächlich bedeutet.
Ich gehe davon aus, dass eine entsprechende Grafik, die detailliert die Schlussfolgerungsketten
bei G&M darstellt, ziemlich umfangreich ist; wenn die Darstellung wirklich eine Kleinigkeit wäre, wäre ich schon froh, wenn jemand dies einmal demonstrierte.
Wichtig ist, nicht aus dem Sinn zu verlieren, dass Verlässlichkeitsangaben zu den benutzten Daten eine
entscheidende Rolle ausüben können; wenn die Verlässlichkeitsangaben nun nicht erwähnt werden und nicht ausgewertet
werden (wie bei G&M), ist das bedenklich.
Uebbing,
in KKW trifft Anlagensicherheit auf theoretisches und praktisches physikalisches Erfahrungswissen. Mit einer solchen Risikoanalyse kalkuliert man, ob die Auslegung einer solchen Anlage technisch mit den bekannten physikalischen Prozessen unter Einwirkung interner und externer Störungen klar kommt.
Würden sie für den Fissionsprozess ähnliche exotische Vorgänge an die Wand malen, wie sie das im Falle des LHC machen, wären diese Risikoanalysen in ihrem Weltuntergangsszenario das Papier nicht wert, auf das sie geplottet wurden. Auch in einem solchen Fall würde nur die Physik helfen. So wie es die LSAG vorgemacht hat.
galileo2609
Hier am Rande eine Frage an Solkar:
Nun möchte ich einmal hervorheben,
dass oben drei ziemlich engagierte Menschen
(meine: Herrn Kannenberg und einen Herrn
mit Nicknamen „Solkar“ u. mich)
mit unterschiedlichen Ansichten,
welche immerhin je eine marginale, unbedeutende Fehlerhaftigkeit
in den von CERN-Wissenschaftlern veröffentlichten Texten
gefunden haben, sich mit LHC-kritischen Einwänden
beschäftigen.
Dies zeigt lediglich die Intensität der Beschäftigung
der Genannten an, denn es ist nicht leicht,
formelle Fehler höchstqualifizierten Forschern nachzuweisen;
wie man sich vorstellen kann,
werden formelle Flüchtigkeitsfehler in deren publizierten
Fachausarbeitungen nur äusserst selten vorkommen.
Hier die Frage an Solkar:
Ich möchte eigentlich davon ausgehen,
dass Sie derselbe Solkar sind,
der eine Grafik zu Doppelsternsystemen
mit Neutronensternpartner (publiziert bei Achtphasen)
gefertigt hatte, welche seinerzeit nahe legen sollte,
dass einige Überlegungen von Giddings und Mangano nun
doch nicht abschließend so sicher sind,
wie diese beiden Physiker einen Eindruck hervorrufen.
Ist es richtig, dass Sie zwischenzeitlich
einen Irrtum in Ihrer eigenen LSAG-Kritik
(wenn ich Ihre damaligen Einbringungen so deuten darf)
entdeckt haben und wo haben Sie gegebenenfalls
davon berichtet ? (Die genaue fachliche Erkenntnis
ist inhaltlich intereressant).
Das von Herrn Kannenberg genannte Kapitel 9 will ich
heute nochmal sichten.
Sie ******** haben also offensichtlich noch nicht einmal begonnen, das Paper einmal gründlich zu lesen und auszuwerten. Von ihrer an *********** teils nicht zu überbietenden Rosinenpickerei einmal abgesehen.
Es ist schon ziemlich armselig, drei Jahre lang immer nur schwammig irgendetwas zu fordern, selbst diese Arbeit aber nicht einmal in Angriff zu nehmen. Sie geben also jetzt im Grunde offen zu, nicht einmal genau zu kennen, was Sie angreifen. Dem Sie implizit Schummelei unterstellen.
Das ist nicht mehr nur armselig.
@Rudolf Übbing:
Sie glauben doch wohl nicht allen Ernstes, dass ich ausgerechnet mit Ihnen über Physik sprechen wollte.
Ferner stellen Sie mir hier keine Fragen, Sie beschäftigen sich am besten zunächst mal mit den Hinweis von
Hans vom 14. Juli 2011, 00:17
– insbesondere hinsichtlich der „causa Rössler“.
Falls Sie jenem Agitator nämlich immer noch Luft zufächelten, so unterstützten Sie damit zugleich seinen neuesten Walkürenritt wider die wissenschaftliche Diskussionskultur im Allgemeinen (z.B. ebd. Eintrag vom May 28, 2011) und wider Arithmetik und MINT im Besonderen (dto).
Dazu mach ich Ihnen ggf. dann mal ne Skizze. In Farbe. Und bunt.
@galileo2609:
Hallo!
Sie (oder „Redaktion“) hatten weiland im Zshg mit der Abbildung der Tübinger prima causa in den Nullraum mich als „Brutus“ bezeichnet, der nur „Cäsar anstelle Cäsars“ werden wolle.
Abgesehen von der Frage nach der historischen Konsitenz der Metapher, glauben Sie wirklich dass, ich Wert darauf legen würde, diese traurige Truppe (Fassnacht, Übbing et al.) zu befehligen?
Wer die als Mitstreiter hat, braucht keine Gegner mehr.
Insofern betrachte ich die Zusammenrottung rund um Markus G. als ein Form der poena naturalis für ihn für eben diese
galileo2609 schrieb um 14. Juli 2011 um 21:24
Entgleisung. (Ich stimme Ihnen übrigens zu; es geht nicht an, die Tragödie von Fukushima zu instrumentalisieren.)
galileo2609 schrieb um 14. Juli 2011 um 21:24
Es ist wahr, man möchte brechen.
Mittlerweile ist es ferner nicht mehr nur die Form der Beiträge, sondern dem Inhalt nach scheint Herr Übbing jetzt auf den bürokratischen Kältetod jedes forschenden Geistes hinzuarbeiten.
Wenn seine „Verordnungen“ umgesetzt würden, würden die Professoren in Genf, CA usw nur noch Formulare ausfüllen statt zu forschen – in A L T G R A D und Pica 9pt auf DINA5 quer mit drei Durchschlägen. In „Übbingsch“ und auf Dreisatzniveau runtergebrochen, versteht sich…
Grüsse,
S.
@Red: ich hatte grade zweimal versucht, einen längeren Beitrag abzusetzen; hängt der jetzt in irgendeiner queue?
An Hans: Wollen wir nicht besser davon ausgehen,
dass wir es w o h l w o l l e n d miteinander meinen / sollten ?
„Enemy pictures“ are out of date.
Wie ich behaupten will, übersteigert es die Leistungsfähigkeit
einzelner Forscher oder sehr kleiner Gruppen,
– wenn die moderne Physik in das Naturgeschehen aktiv eingreift,
dabei neue, äusserst extreme Grenzen erreicht und tatsächlich technisch auch überschreitet –
die tatsächliche Bedeutung dessen präzise
(probalistisch) zu erfassen, auszuwerten und in Resultate
umzusetzen;
dazu bedarf es wesentlich mehr Informationen,
welche vorhanden sind, genauestens einzubeziehen –
ein sehr arbeitsträchtiges Vorgehen.
Die Gewichtigkeit und Bedeutung dessen,
was diskutiert wird, ist in jedem
Fall den hohen Aufwand wert.
Niederländische Richtlinien für Grenzrisikofestsetzungen
geben einen ersten Eindruck, welche ausserordentliche,
schwergewichtige Bedeutung die derzeitige Entwicklung in der Hochenergiephysik haben kann.
Wie sagte Konfuzius – wir wissen nicht, ob ein Gott
tatsächlich existiert, also lasset uns ihm ein Opfer bringen –
dieses Opfer bedeutet nach meiner Auslegung konkret:
Angemessenen Aufwand bei einer Sicherheitsbeurteilung zu
betreiben.
Dafür treten etliche kritisch und aufmerksam denkende
Menschen ein; die Menge der international vorgebrachten
Klagen macht dies klar.
Es überfordert Sie also seit drei Jahren, endlich das Paper zu lesen und beispielsweise Ihren Baum daraus zu zeichnen?
Ist Ihnen das nicht selbst ein wenig peinlich?
Hier ist nichts angekommen, ausser des zitierte Kommentars.
Nochmal zum Aufwand einer p r o b a l i s t i s c h orientierten Sicherheitsanalyse,
zu welcher genau die meinerseits vermissten Verlässlichkeitsangaben der zugrundeliegenden wissenschaftlichen Erkenntnisse explizit herangezogen, berücksichtigt und ausgewertet werden:
Bedenken Sie doch bitte, dass nach ca. zwei Jahrzehnten Planzeit und
Bauzeit des LHCs der LSAG-Report 2008 etwa erst
drei Monate vor der Inbetriebnahme des Colliders im Sept. 2008
erschien – da war nicht mehr viel Zeit, eine feingliederige
probalistische Sicherheitsanalyse zu erstellen; dies
passt zu der kurz davor erschienenen Arbeit von Giddings
und Mangano („Astrophysical Implications …“),
wobei die zusätzliche Arbeit zu einer aufwendigen Feinanalyse der Verlässlichkeitsangaben
( = z.B. Standardabweichungen zu den zugrundeliegenden
Fachdaten) einen möglichen Verzug zur rechtzeitigen
Veröffentlichung eines Sicherheitsnachweises noch vor dem
Collider-Start in 2008 bedeutet haben kann.
= : Meine persönliche Sicht – prüfen Sie doch, bitte.
Sehr geehrter Herr Uebbing,
das ganze scheint mir eher eine grundsätzliche Diskussion zu sein, die nichts mit dem Teilchenbeschleuniger zu tun hat: Wann ist ein probabilistischer Ansatz sinnvoll und wann ist es sinnvoll, direkt nachzurechnen.
Bevor man aber diese grundsätzliche Überlegung anstellt, eine Frage: teilen Sie die Ansicht, dass eine direkte Nachrechnung immer ein verlässlicheres Resultat ergibt als eine auf vielen Unsicherheiten beruhende Wahrscheinlichkeitsrechnung, die aufgrund der Unkenntnis blackbox-mässig auch Dinge berücksichtigen wird, die überhaupt keine Rolle spielen ?
Wenn ich wissen will, ob ein Mensch in 10 Minuten zu Fuss (also natürlich, indem er sehr schnell rennt) von Basel nach Hamburg gelangen kann, dann genügt es völlig, die Höchstgeschwindigkeit, die ein Mensch z.B. über 10 Kilometer erreichen kann, sowie den Abstand Basel-Hamburg einzusetzen; dazu braucht es keine Risikoanalysen, die berücksichtigen, dass (1) ein Mensch über 100 m schneller läuft, dass es (2) ein Paradox zu geben scheint, dass der Weltrekord über 200m schneller ist als zweimal der Weltrekord über 100m, dass (3) die Erde gekrümmt ist, dass (4) Massen überdies die Raumzeit krümmen, (5) …
Freundliche Grüsse, Ralf Kannenberg
Sie meinen, dass hier Defizite mit gravierenden Folgen vorliegen könnten. Es ist an Ihnen, das zu zeigen. Und zu prüfen.
Wie lange wollen Sie noch warten?
ralfkannenberg schrieb am 20. Juli 2011 um 12:37
Falsch. Da Herr Fassnacht ein möglicher Proband ist, werden wir in Hamburg selbstverständlich Risikoanalysen durchführen…. 😉