Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1998Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Trackbacks & Pingbacks
Kommentare sind geschlossen.
Falsch muss sein,
von einem Nicht-Physiker genau die Facharbeiten
zu erwarten, die von Professionellen zu leisten ist –
das gebietet klares Denken.
Die Zuständigkeiten für Beweispflichten sind
juristisch ohne jeden Zweifel bereits geregelt;
ein Anlagenbetreiber, der mögliche Verursacher,
muß die Sicherheit seiner Anlage nachweisen – nicht die
evtl. Betroffenen.
Eine Verbiegung von Risikowerten,
die nicht nachweisbar Null sind,
somit tatsächlich ein „Fast-Null“ repräsentieren,
hin auf ein „exaktes Null“
ist ein klarer Verstoß gegen Wissenschaftlichkeit,
wenn die Deutungshoheit eines Grenzrisikos nicht bei
den am Experiment direkt interessierten Personen liegt.
(sh. Zitat oben – Physiker Don Lincoln in „Die Weltmaschine“).
Die Ausserordentlichkeit der HEP-Experimente
ist der Öffentlichkeit leider noch nicht bewusst.
In Übereinstimmung mit Dr. M. Leggett sage ich:
Der LSAG-Report 2008 entspricht nicht zeitgemäßen
Standards.
Ich beschränke mich darauf, darin o f f e n k u n d i g e
Auslassungen zu beschreiben –
diese sind leicht zu erkennen und sie
werden noch Anlaß zu einigen
Nachbesserungen geben.
Wir werden genau das erleben.
Zum Kommentar #897 20. Juli 2011, 12:37,
zu dem Beispiel des einfachen Nachrechnens
für den von Herrn Kannenberg beschriebenen
Fall des Läufers trifft die Behauptung
– eine einfache Nachrechnung ist ausreichend – anscheinend zu;
obschon ich bei einem Volkslauf erlebt habe,
dass einige Teilnehmer „gewarpt“ haben,
d.h. eine Abkürzung genommen haben.
Für die komplexe Situation in der Astrophysik,
wo einige Ausnahmensituationen denkbar sind,
müssen, wie ich finde,
Detailuntersuchungen z.B. unter Zugrundelegung
von Vertrauensintervallen durchgeführt werden;
Quantifizierungen von Irrtumspotenzialen müssen
hier vom Betreiber durchgeführt werden – leider
existieren im vorliegenden Fall einige bestimmte
Fehlanzeigen.
Die Beurteilung von Verlässlichkeitsangaben
kann in einer Sicherheitsanalyse von
der hier gegebenen ausserordentlichen Bedeutung
nicht einfach außen vor gelassen werden;
Nebenbedingungen für denkbar mögliche Ausnahmesituationen
müssen detailliert bewertet werden.
Ein Beispiel: Homogenität der hochenergetischen Kosmischen Strahlung (CR).
Wie zuverlässig, mit welchem quantifizierten
Signifikanznivau, kann die Homogenität mittlerweile tatsächlich
nachgewiesen werden ? (AUGER hatte schon für Fälle
hoher Energien bei der CR ein interessantes Zwischenresultat,
das zwischenzeitlich aber wieder relativiert wurde;
(Die neuesten Erkenntnisse können hier die Wahrscheinlichkeit
einer LHC-Sicherheit erhöhen.)
Völlig falsch. Sich einerseits als Nichtphysiker in der Lage sehen, in Arbeiten von Vollphysikern Fehler zu entdecken, die genauere Ausarbeitung dann aber abwälzen zu wollen – das passt hinten und vorne nicht zusammen. Schon gar nicht, wenn angeblich drei Jahre intensiver Beschäftigung vorliegen.
Sie können nicht permanent Fehler anmahnen und sich bei jeder konkreten Nachfrage hinter Ihrem Status als Nichtphysiker verschanzen. Das ist billig und grenzt an üble Nachrede.
Sehr geehrter Herr Uebbing,
hier bin zumindest ich nicht einverstanden: Obgleich das Restrisiko, dass 2+3 von 5 verschieden ist, echt grösser als 0 ist – ja sogar grösser als das Auftreten von Vakuuminstabilitäten – wäre es absurd, einen klaren Verstoss gegen Wissenschaftlichkeit zu bemängeln, wenn man der Gleichung 2+3 = 5 ein von exakt 0 verschiedenes Restrisiko eines Fehlers zuweisen würde. Ja, es wäre sogar irreführend, wenn man sowas behaupten würde.
Freundliche Grüsse, Ralf Kannenberg
Zitieren Sie doch bitte auch den zweiten Teil meines Satzes,
damit das korrekte Verständnis erhalten bleibt – er lautete:
„,wenn die Deutungshoheit eines Grenzrisikos nicht bei
den am Experiment direkt interessierten Personen liegt.“
Der Physiker Don Lincoln erledigt hier gleich zwei Aufgaben; für eine
ist er nicht zuständig.
Sehr geehrter Herr Uebbing,
ich sehe nicht, was sich an der Beurteilung des Restrisikos der Addition 2+3 ändert, wenn ich mir Gedanken über die Deutungshoheit eines Grenzrisikos mache.
Freundliche Grüsse, Ralf Kannenberg
Der zweite Teil meines Satzes bezog sich
auf tatsächlich extrem kleine Risikowerte,
die man zu Null leider nicht nachweisen kann.
Wissenschaftler existieren, die das LHC-Risiko als
hoch ansehen, z.B. T. ORD, der den
Risikowert auf Basis sehr grober
Abschätzungen zwischen 1:10000
und 1: Million bezifferte – genau
derartige Werte ließen sich über ausführliche
Analysen von zu detallierenden Ausnahmesituationen – jedoch
unter Zugrundelegung empirischen Beobachtungsmaterials –
eingrenzen; für die Vakuuminstabilität im
LHC-Falle habe ich oben den Wert 1E-31
gelesen – absurd klein, aber gemäß der
Extrapolation niederländischer Richtlinien und
gemäß einer nicht ausschließbaren optimal guten
Menschheitszukunft (sh. A. KENT) ist dieser
„absurd kleine“ Wert um mehrere Größenordnungen
h ö h e r als die Extrapolation der niederländischen
Richtlinien für ein tragbares Grenzrisiko ergibt –
ich erkenne, dies ist
n i c h t trivial, sondern dies bedarf einer öffentlichen,
auch ethisch orientierten Diskussion. –
Vielleicht gibt es berechtigte Wertvorstellungen,
die geklärt werden müssen, welche einen
durchaus hohen Risikooberwert, z.B. 1E-12 pro Jahr gem.
N. BOSTROM, M. TEGMARK, konsensfähig sind
und erlauben.
Hier mein Gedankengang zu der Wahrscheinlichkeitsbetrachtung
2 + 3 = 5 :
Dem absurd kleinen Wahrscheinlichkeitswert,
wie oben im Beitrag von Herrn Kannenberg
ermittelt und vorgestellt,
stimme ich bzgl. der rechnerischem Zahlwert ja zu.
Diese Demonstration von Herrn Kannenberg halte ich gut dafür,
eine Vorstellung über die Bedeutung kleiner Zahlen zu erhalten.
Wie hingegen im Falle von fraglichen Risikowerten zu entscheiden ist,
legt eine Übereinkunft zwischen Menschen fest –
g l e i c h, wie ein Wert zustande gekommen ist,
wenn er real begründet, wissenschaftlich korrekt,
z.B. als Obergrenze, ermittelt wurde.
Um möglichst auf der sicheren Seite zu sein,
ist konservativ die worst-case-Lösung anzuwenden –
darüber entscheiden Fachleute, die sich
an gesellschaftliche Vorgaben halten.
Ich finde die Grenzrisikoregelung im LSAG-Report 2008
einfach nicht ausdiskutiert
– wozu auch, im LSAG-Report ist die kritische
Risikogrenze ja als nullwertig ermittelt –
damit erübrigten sich die Mühen einer
Grenzrisikoregulierung. Ist das nicht
allzu sehr vereinfachend ?
Sie implizieren, das wäre bei LSAG nicht getan worden.
Belegen Sie!
Sehr geehrter Herr Uebbing,
Gemäss der von Ihnen genannten Arbeit von Dr.Ord weisen auch die Addition von 2+3 sowie die Vakuuminstabilität ein Restrisiko zwischen 1:10000
und 1: Million auf. Das kommt daher, dass in der Bayes’schen Formel der 1.Summand << der 2.Summand wird.
Die Abschätzung von N. Bostrom und M. Tegmark war nur eine allererste grobe Abschätzung, um eine Idee zu erhalten. Sie diente nicht als Sicherheitsanalyse, was man auch schon einfach daran erkennen kann, dass die Überlegungen weniger als 4 Seiten Platz in Anspruch nehmen. Möchte man eine bessere Abschätzung, also einen geringen Restrisikowert, so muss man sich mehr Mühe machen, wie das in Form diverser Sicherheitsanalysen erfolgt ist. Damit ist die Arbeit von N. Bostrom und M. Tegmark bezüglich Restrisiko-Abschätzung als „veraltet“ anzusehen, da es mittlerweile bessere Abschätzungen gibt und sollte entsprechend nicht mehr für Sicherheitsüberlegungen referenziert werden.
Freundliche Grüsse, Ralf Kannenberg
Nochmal zur Bedeutung einer Richtlinie für Grenzriskowertfestsetzungen wie die
in den Niederlanden für öffentliche Planverfahren:
Wir erinnern uns, dass vor ca. 2 Jahren ein Rechtsanwalt in den
USA aus juristischer Sicht das Dilemma in
der Hochenergiephysik in einem 90-Seiten
Aufsatz in einem Fachjournal erläutert hat.
Er diskutierte dabei folgende Gleichung:
Zu erwartender Schaden = Null mal Unendlicher Wert
(fragwürdiger Nullwert für das Risiko – unendlich großer Wert
an Gütern, die zur Disposition stehen).
Das Ergebnis ist mathematisch zunächst unbestimmt –
man stutzt und zögert – eine natürliche Reaktion.
Die Lösung dieses mathematischen Dilemmas
besteht doch darin, einfach sehr große und sehr kleine
Zahlen, wenn auch kaum vorstellbar, zu akzeptieren.
Jaffe, Busza, Sandweiss, Wilczek liefern eine
Obergrenze (Vakuuminstabilität, RHIC-bedingt): 2E-36
bezogen auf 10 Jahre Collider-Laufzeit.
A. Kent liefert seine Anzahl (für lives) im Falle einer optimal
guten Menschheitshistorie in der Zukunft: 1E17.
Zu diskutieren:
Die Extrapolation der niederländischen Richtlinie
ergibt einen Entscheidungswert, konkret beziffert.
Ich frage nun:
Warum soll ein systematisches Vorgehen verkehrt sein,
um ein scheinbares Dilemma nicht doch noch lösen,
d.h. möglichst realistisch beurteilen, zu können ?
Die Risikoobergrenze von N.Bostrom und M.Tegmark
beruht auf Stellarstatistiken gem. LINEWEAVER –
solange genau diese Stellarstatistik n i c h t
in der Sicherheitsanalyse des LSAG-Reports 2008
verarbeitet und angesprochen wird, möchte ich die Obergrenzenabschätzung in Nature, 438. 754 (2005) als eine
u n a b h ä n g i g e Abschätzung betrachten.
Sie gehört daher, wie ich meine, separat widerlegt
und nicht beiläufigerweise übergangen.
Sehr geehrter Herr Uebbing,
das ist leider unzutreffend, wie folgende Überlegung einfach darstellt: Nehmen Sie an, ich verfasse eine Sicherheitsanalyse zum LHC. Da ich keine Zeit habe, setze ich das Restrisiko zu 100%. Das ist nicht falsch, sondern entspricht lediglich dem Ergebnis meiner Analyse.
Die Aussage, diese von mir hypothetisch erstellte Sicherheitsanaylse sei unabhängig und müsste deswegen seperat widerlegt werden, ist – wie man offensichtlich sieht – unzutreffend.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
da gibt es nichts zu zögern: Da Sie 0-wertige Risiken per definitionem ablehnen, wächst das Resultat dieser (Milchmädchen-)Rechung über alle Schranken an, ist also umgangssprachlich gesprochen „unendlich“. Das gilt für jede Situation, d.h. man müsste umgehend alle Aktivitäten einstellen. Das wird also nicht die Lösung einer ernstzunehmenden Risikoanalyse sein können.
Es ist mir neu, dass „sehr kleine Zahlen“ ein mathematisches Dilemma darstellen würden: Die Zahl Null ist wohldefiniert.
Und was das Produkt von „null“ mal „unendlich“ anbelangt – manchmal gelingt es, beide Grössen als Folge einer gemeinsamen Variable darzustellen; dann kann man – falls das konvergiert – das Ergebnis stetig auf den Grenzwert fortsetzen; beispielsweise 2x*(1/x) oder x*(1/x**2).
Freundliche Grüsse, Ralf Kannenberg
Das stimmt.
Das nicht;
falls Sie , wovon ich ausgehe, auf x=0 fortsetzen wollen.
(Nach einmal l’Hospital ist Schluss, da Zähler dann schon const aber der Gesamtterm für x->0 immer noch divergiert).
Hallo Solkar,
danke, ich meinte natürlich den Kehrwert(x**2)/x, damit sich das x im Nenner herauskürzen kann.
Besten Dank für die Korrektur.
Freundliche Grüsse, Ralf Kannenberg
@Solkar: ist zwar divergent, aber nicht unbstimmt. Im Sinne eines „erweiterten“ Grenzwertbegriffes kann man das als stetige „Fortsetzung“ sehen. Im übrigen ist L’Hospital eine gewaltige Einschränkung.
Zu: #913 | ralfkannenberg | 20. Juli 2011, 19:40
Sie schreiben:
„Es ist mir neu, dass “sehr kleine Zahlen” ein mathematisches Dilemma darstellen würden:…“
Ich zitiere mich dazu bitte selbst:
„Zu erwartender Schaden = Null mal Unendlicher Wert
(fragwürdiger Nullwert für das Risiko – unendlich großer Wert
an Gütern, die zur Disposition stehen).
Das Ergebnis ist mathematisch zunächst unbestimmt –
man stutzt und zögert – eine natürliche Reaktion.
Die Lösung dieses mathematischen Dilemmas…“
Bitte, lesen Sie doch nochmal – da steht nichts davon, dass
sehr kleine Zahlen ein Dilemma darstellen.
Wie hingegen zu merken ist, plädiere ich für
die Anwendung einer Grenzrisikofestlegung.
Diese funktioniert als Entscheidungshilfe, z.B. über
die Notwendigkeit risikomindernde Maßnahmen,
bei allen denkbaren, möglichen
Werten von 0 bis 1.
@Uebbing: sehr, sehr, sehr, …, sehr klein ist eben so gut wie Null. Das ist kein Dilemma. Höchstens für sie.
Die Grenzrisikofestlegung ist eben Null.
Ein Grenzrisikofestlegung zu Null ist leider in der Praxis
unerfüllbar und lebensfern.
Eine Grenzrisikofestlegung auf Null ist in der Praxis genau so unerfüllbar oder lebensfern, wie eine Grenzrisikofestlegung auf
Zu Kommentar #912 | ralfkannenberg | 20. Juli 2011, 18:27 :
Zu dem von Ihnen beschriebenen idealisierten Riskobeurteilungsfall mit p=1
(also ein Risiko mit 100 Prozent angesetzt)
ist j e d e nachfolgende Risikoanalyse,
die im Detail konkrete Wirkmechanismen untersucht
und Erkenntnisse dazu gewinnt und auswertet,
eine Verbesserung, mithin eine Präzisierung,
da die Erstanalyse (p = 1) offenbar noch o h n e jede Kenntnisse
zum Wirkmechanismus auskommt
(Sie benennen ja einen Grund dazu – wegen Zeitmangel).
Die unvoreingenommene Sichtweise kann lauten:
Zwei Risikobeurteilungen konkurrieren zunächst einmal
miteinander;
stellt sich eine Risikobeurteilung als
Untermenge der anderen heraus,
so ist die Risikobeurteilung mit
der größeren berücksichtigten Informationsmenge
(Informationsmengen hier in beiden Fällen im übrigen als qualitativ
gleichwertig unterstellt)
die bessere, die verlässlichere,
wenn beide Risikobeurteilungen methodisch gleich wären.
Benutzen zwei Risikoanalysen zum selben Untersuchungsgegenstand
unterschiedliche Datensätze bei gleicher
methodischer Wertigkeit, so ergibt
der Qualitätsvergleich der Datensätze Hinweise darauf,
welche der beiden Risikobeurteilungen die bessere ist.
In diesem Fall wäre u.U. darauf hinzuwirken,
dass die unterschiedlichen Datensätze in einer zusammenfassenden, neu zu erstellenden Risikobeurteilung einfließen.
Benutzen zwei Risikobeurteilungen unterschiedliche Datensätze
u n d unterschiedliche methodische Ansätze,
so kann eigentlich nur der datenmäßige und
methodische Detailvergleich hier Aufschluss über die jeweilige Aussagekraft ergeben.
Für unterschiedlich angelegte Risikobeurteilungen,
die Wirkungsmechanismen in irgendeiner Weise mitberücksichtigen,
kann nur im Wege des Vergleiches entschieden werden,
welche der beiden Analyse die aussagekräftiger ist,
ob sie einander widersprechen oder
ob sie einander ergänzen können –
u.U. können unterschiedliche Analysewege aus zwei unterschiedlich
angelegten Risikobeurteilungsverfahren miteinander kombiniert
werden, so dass p selbst und das zugehörige Vertrauensintervall
für p (p = Risikowert, evtl. auch dessen Obergrenze)
nochmals präzisiert werden kann.
Ich halte daher meine Behauptung aufrecht, dass die spezielle
Stellarstatistik nach Lineweaver i.V.m. dem Beurteilungsverfahren
von Bostrom/Tegmark fachlich und explizit im LSAG-Report 2008
zu erwähnen ist und im Detail begründet werden sollte,
warum das neuere Beurteilungsverfahren (2008)
hier verlässlichere Wahrscheinlichkeiten (hier aus dem Text des LSAG-Reportes
sprachlich abzuleiten sogar mit p= 0, „Zero“, sogar endgültig,
beliebig genau verläßlich) ergibt;
dies ist keinesfalls trivial
und ergibt sich nicht logisch zwingend automatisch.
Leider wird im LSAG-Report 2008 im Endresultat
nicht mit einer Gleichung wie p=0 operiert,
sondern die Gleichung p=0 (Nullwert eines Risikos)
einschl. des zugehörigen Vertrauensintervalles
ist aus dem sprachlichen Kontext heraus
zu nehmen; dabei sind die zugehörigen Werte (Risiko = Null) und die Verlässlichkeit dieser Angabe als beliebig präzise zu entnehmen.
(Als Nichtphysiker staune ich über
die hier demonstrierte Vollendung
eines speziellen physikalischen Wissens –
entschuldigen Sie bitte diese bittere Bemerkung.)
Beobachtungsdaten (wie die Stellarstatistik v. Lineweaver)
stellen grundsätzlich z u s ä t z l i c h e Informationen
für den LSAG-Report 2008 dar;
eine entfallende Notwendigkeit, diese Zusatzinformationen
eben nicht zu berücksichtigen, muss daher schon eine
Begründung verdienen.
Das o.g. Risikobeurteilungsverfahren (mit p = 1)
leidet unter einer einschränkenden Idealisierung;
die reelle Umsetzung von Risikoanalysen und ihre
Vergleiche untereinander muss über Details
der Beurteilungsausführung verstanden werden –
so sehe ich jedenfalls den Zusammenhang;
der Einzelfall entscheidet; Gewissheit über die
Zusammenhänge erfahre ich letzten Endes über die Details.
Hallo Solkar,
worauf sie Wert legen, entzieht sich meiner Kenntnis. Nach ihrer Selbsteinschätzung stellt sich mir, und möglicherweise nicht nur mir, erneut die Frage, warum sie auf achtphasen die Rechte eines „Member“ mit offensichtlich weitgehenden Adminrechten ausüb(t)en.
das ist trefflich gesagt. Ein Moment zum Schmunzeln. Leider sind solche Gewissheiten kein Allgemeingut. Und wie Herr Uebbing heute mehrfach unterschwellig angedroht hat, will er sich weiter der Methoden dieser Truppe bedienen.
Grüsse galileo2609
@Karl
Karl schrieb am 20. Juli 2011 um 20:11
Interessanter Einwand!
Seien ,
und
,
.
Versteh ich Dich richtig, dass Du so
,
.
„stetig fortsetzen“ willst?
Karl schrieb am 20. Juli 2011 um 20:11
Stimmt, aber ich sehe grade nicht. was bei gebrochen-rationalen Funktionen noch schief gehen sollte.
Beste Grüsse,
S.
@Karl.
iwie bin ich heute beim Posten ungeschickt; der Gruss sollte natürlich am Schluss stehen.
@galileo2609:
Ganz einfach – Ich hatte damals die Hoffung gehegt, auf 8P und auch im „Dialog“ AC vs. 8P &Co. eine andere, konstruktivere, Diskussionskultur nachhaltig verankern zu können.
Das „Ergebnis“ ist Ihnen, glaube ich, noch in Erinnerung.
Grüsse,
S.
Uebbing,
sie haben den Tag heute ausgiebig genutzt, um in ihrer Endlosschleife erneut über „Los“ zu ziehen. Faszinierend, wie sie längst beeinspruchte Äusserungen einfach erneut wieder aus dem Ärmel ziehen. Beeindruckend ist auch ihre Methode, zwischen ihren unausgegorenen Agitationen fakultativ zu wechseln. Besonders wertvoll ist natürlich, wie sie ihre unsinnigen Phantasien im Laufe des Threads zu unumstösslichen Voraussetzungen wenden wollen. Und ganz nebenbei verstärken sie ihre Propaganda, der mainstream habe wissenschaftlich unredlich gehandelt.
Nennen sie mir bitte selbst ein Adjektiv, wie man einen solchen Nichtdiskussionsstil bezeichnen kann.
Weiter möchte ich sie an folgendes erinnern:
Auch ihre heutigen Kommentare sind eine intellektuelle Körperverletzung, bereits in der Form und noch abgesehen von deren Inhalt. Wer der Sprache nicht mächtig ist, ist definitiv kompetenzlos, in unseren Diskussionen thematisch mitzuhalten.
galileo2609
[…] seit 2008 im Debunking der Maschinenstürmer um Otto E. Rössler engagiert, hat sich erneut entschlossen, die Texte des Tübingers kommentiert zu publizieren. Nichts ist so entlarvend wie die Quelle! Nur […]
Hallo Solkar,
ist das so o.k. für sie?
Grüsse galileo2609
Die Einführung und die Definition
eines neuen Nullbegriffes hier im
AC-Blog zur Anwendung in Risikoanalysen –
ein Benamungsvorschlag: Die „Wie-Null“
oder die „LINCOLN-Null“:
Versuch einer Definition:
Alle Werte von Risikoobergrenzen
(wo also der Nachweis einer mathematisch
exakten Null eines Risikos nicht gelingt),
welche kleiner sind als 2E-36 – wie im RHIC-Fall zur Vakuumsinstabilität -,
werden im Rahmen von Risikoanalysen der
Hochenergiephysik mit ihren Werten
als mathematisch exakt Null angenommen.
Ich hoffte, meine AC-Diskussionspartner
wären wie ich entschiedene Gegner einer
solchen Definition, die den Umgang mit
extrem kleinen Risiken wie bei der
angesprochenen Vakuuminstabilität
nur irrtümlich erleichtern kann und
über durchaus vorhandene Restrisiken
hinwegtäuschen kann.
Die Diskussion hier in diesem Blogg
mutet an, als schlummere im Bewusstsein
einiger eine Definition einer „Wie-Null“ –
nun, der Physiker Don Lincoln spricht
im Zusammenhang mit Risiken in
seinem Buch „Die Weltmaschine“ von
„exakt Null“, gemeint ist ein Risiko des LHC.
Ich schlage daher vor,
die hier angesprochene „Wie-Null“ besser auch
als „LINCOLN-Null“ zu bezeichnen.
Da im LHC-Fall nicht der Wert 2E-36
gültig ist, sondern der 50000-fach größere Wert 1E-31,
kann man sich überlegen, ob die mathematische
Grenzziehung bei der Definition der
LINCOLN-Null nicht günstiger auf 1E-31
erhöht würde, was zusätzlich die
Risikoerörterung künftig erleichterte.
Sie fühlen, es klingt eine gewisse
Bitternis in meinem Defintionsvorschlag,
welchen ich zum besseren Verständnis
gewisser Absurditäten hier einmal,
bitte, nicht provokativ gemeint,
vorlege.
Manchmal muss man sich Absurditäten
konkretisieren, um sich ihrer bewusst zu werden.
(Nun, es gibt scharfe Definitionen für
Begrifflichkeiten aus dem Bereich der Risikoanalyse
in bestimmten DIN-Vorschriften; diese Definitionen sollten mal probeweise den Risikoanalysen in der Hochenergiephysik unterlegt werden.)
Hallo Karl, hallo Solkar,
ich würde nicht ohne Not die reellen oder auch die komplexen Zahlen einer Einpunktkompaktifizierung unterwerfen.
Natürlich kann man das machen, aber es verändert den „Charakter“ der vormals offenen Menge doch wesentlich.
Freundliche Grüsse, Ralf
Sehr geehrter Herr Uebbing,
mit der Methode von Bostrom/Tegmark können Sie keine bessere Risikoabschätzung erreichen. Daraus schliessen zu wollen, dass man für eine feinere Risikoabschätzung zunächst die ungenauere Risikoabschätzung widerlegen müsste, kann doch nicht richtig sein. Es ist aber ein schönes Beispiel dafür, dass die “Arithmetik“ der Risikoabschätzungen weitaus komplizierter ist als es auf den ersten Blick erscheinen mag.
Im Übrigen sei nochmals daran erinnert, dass eine direkte Nachrechnung stets ein besseres Ergebnis als eine Risikoanalyse ergibt, da letztere auf grossenteils unbekannten Parametern und Zusammenhängen beruht.
Freundliche Grüsse, Ralf Kannenberg
Zu
„Im Übrigen sei nochmals daran erinnert, dass eine direkte Nachrechnung stets ein besseres Ergebnis als eine Risikoanalyse ergibt, da letztere auf grossenteils unbekannten Parametern und Zusammenhängen beruht.“
möchte ich meinen:
Wesentliches Merkmal
von vollständigen Risikoanalysen ist die
Einbeziehung und Bewertung von Ausnahmefällen;
daher müssen, wenn eine Gesamtsicht gewollt ist,
auch unbekannte Parametrisierungen in eine
Risikoanalyse mit einfließen und im Wege
einer Obergrenzenabschätzung konkretisiert werden.
Die gefühlte Null („exakt Null“ von Physiker Don Lincoln)
gehört im Wege einer Grenzrisikofestsetzung angemessen beurteilt;
das bedeutet bei extrem hohen Werten von Gütern kann auch eine scheinbar absurd kleine Gefahrenwahrscheinlichkeit nicht simplifizierend zu einer perfekten Null gemacht werden.
Die Lösung der jetzigen und künftigen Collider-Problematik sehe ich
in einer Anwendung einer Grenzrisikofestsetzung.
Man urteile über die Sichtweise von Gerd Antes:
“Es gibt die qualitative Aussage „sicher“ nicht,
sondern nur eine quantitative Sicherheit,…”
Dazu:
http://www.faz.net/s/RubB08CD9E6B08746679EDCF370F87A4512/Doc~E6488626574F54E81A39580E4394435A6~ATpl~Ecommon~Scontent.html
“Von Gerd Antes …
“Auch wenn immer wieder behauptet wird, dass etwas „sicher“ sei,
so wird hier wieder einmal demonstriert,
dass diese Aussage immer falsch ist. Immer.”
“Es gibt die qualitative Aussage „sicher“ nicht,
sondern nur eine quantitative Sicherheit,…”
” …
Es ist nicht einmal überraschend. Auch wenn immer wieder behauptet wird, dass etwas „sicher“ sei, so wird hier wieder einmal demonstriert, dass diese Aussage immer falsch ist. Immer. Es gibt die qualitative Aussage „sicher“ nicht, sondern nur eine quantitative Sicherheit, die oft durchaus extrem groß sein kann, so dass insbesondere Politiker daraus gern „sicher“ beziehungsweise „kein Risiko“ machen. Auch wenn das sogenannte Restrisiko 10 hoch minus 6 ist (1 durch 1.000.000) – also sehr klein –, so ist es eben nicht Null. Bei den meisten Menschen, auch Politikern, wird daraus eine gefühlte Null.
Während es die Null auf der Risikoseite nicht gibt, ist gerade deswegen auf der anderen Seite das Risiko, dass ein solches Ereignis irgendwann eintritt, hundert Prozent, beziehungsweise die Wahrscheinlichkeit ist eins. Es ist also nicht die Frage, ob es eintritt, sondern nur, wann und wo.
…
Der Autor ist Mathematiker und Direktor des Deutschen Cochrane Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik der Albert-Ludwigs-Universität Freiburg.”
Sehr geehrter Herr Uebbing,
das stimmt nicht: Aus einer schlechten Risikoabgeschätzung folgt noch keineswegs der sichere Eintritt des Ereignisses.
2+3 wird auch in N Jahren mit N >> maximale Lebensdauer eines Universums nicht zu 6 werden.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Kannenberg,
ich stimme Ihnen zu:
Mit Vollgültigkeitsaussagen, die ich
in einigen Texten kritisiere, ist
besonders behutsam umzugehen.
Wenn der CERN-Generaldirektor von seiner
persönlichen „hundertprozentigen“ Überzeugung
in einem Interview gesprochen hat,
habe ich unmittelbar damit verbunden,
bei einem tatsächlichen Wert zwischen
99,5 % bis 100 % wird man umgangssprachlich
auf den vollen Wert aufrunden dürfen.
Darf man dies auch in einer wissenschaftlichen
Arbeit, hier ein „Abrunden“ auf Null, in einem sehr spezifizierten Zusammenhang,
wenn die Multiplikation mit einem sehr großen Wert
immer noch ein zu berücksichtigendes Ergebnis
auswirft ? Eine Lösung dazu besteht in einem
bestimmten Verfahren aus dem Bereich der Risikoforschung.
Mit freundlichem Gruß
Rudolf Uebbing
Langsam beschleicht mich das Grauen ob der in diesem Blog dargebotenen Absurditäten.
‚Wie-Null‘, ‚Lincoln-Null‘ etc. erscheinen mir gleichsam als Fabelwesen einer
verzerrten Wahrnehmung.
Dabei geht es, soweit ich verstanden habe, u.a. um den qualitativen Unterschied zwischen einer ‚aussagelogischen Analyse‘ (LA) und einer ‚probabilistischen Analyse‘ (PA).
Bei der Grundform der LA führt eine problemangepasste, strukturierte Argumentation über JA/NEIN-Aussagen zu einem JA/NEIN-Ergebnis.
Im Falle einer Risikoanalyse lautet das Ergebnis dann:
‚Es besteht ein Risiko‘ oder ‚Es besteht kein Risiko‘. Das kann man als logische Null bzw. logische Eins auffassen, darf diese aber keinesfalls als natürliche oder reelle Zahlen (0, bzw. 1), bzw. als Wahrscheinlichkeit verstehen, obwohl letzteres in der Praxis manchmal toleriert wird.
Bei der Grundform der PA werden zunächst (kombinatorisch) die realtiven Häufigkeiten der zugrunde liegenden Ereignisse bestimmt und daraus die entsprechenden Wahrscheinlichkeiten abgeschätzt. Das sind dann reelle Zahlen p(i), wobei 0 < p(i) <1 ist.
Die mathematische Darstellung des resultierenden Risikos gelingt nur in relativ einfachen Fällen in einer geschlossenen Form, vor allem, wenn verschiedene Parameter statistisch voneinander abhängig sind. Dies ist ein Manko, denn man muß dann eine Art Monte-Carlo-Simulation auf dem Computer erstellen und durchführen, was bei komplexen Systemen aus Zeitgründen nur Sinn macht, wenn das Risiko nicht zu nahe an NULL ist.
(M.E. ist bei einem komplexen System z.B. ein Risiko < 10E-9 mit einem modernen PC kaum mehr mit einer vertretbaren Aussagesicherheit zu ermitteln.)
Zwischen den beiden Grundformen LA un PA gibt es natürlich Mischformen.
Der erfahrene Analytiker wird sich in jedem Fall das Problem genauestens ansehen, bevor er sich für die Anwendung einer bestimmten Methode entscheidet. Und selbst dann sieht er sich ab und zu genötigt, im Laufe der Arbeiten die Methodik zu variieren.
N.B.:
Wenn 4 Zahlen als Basis zur Berechnung des RHIC-Risikos dienen sollen, nämlich N1, X1, N2, X2, wobei N1=10E47, X1=0, N2=2*10E11, X2=0, so frage ich mich, wieso man bei der ungeheuren Größe von N1 und N2 das Ergebnis von R ~ N2/N1 = 2*10E-36 in Zweifel zieht. Die Größe von N1 und N2 in Verbindung mit den 0-Werten von N1 und N2 führt jede kombinatorische Betrachtung des Risikos auf den Grenzfall einer Bildung des Quotienten N2/N1 hin. Und bei einer kombinatorischen Berechnung des Risikos ist jede Art von Aussagesicherheit oder Signifikanz obsolet, da die zugrunde liegenden Zahlen nicht variiert werden.
Man könnte also, wenn man will, einen gewissen Unsicherheitsbereich abstecken, indem man die Parameter N1 und N2 variiert und dann jeweils den besagten Quotienten bildet. Das ist sehr einfach, bringt aber m.E. nichts und führt das Ganze lediglich auf die Vertrauenswürdigkeit der Zahlen N1 und N2 zurück. X1=0 und X2=0 sollten wir nicht variieren, denn das würde unserer Existenz widersprechen, wie in diesem Blog schon mehrmals dargelegt wurde.
@ Herrn Uebbing:
Warum immer noch von anderen etwas fordern, was gegen alle Vernunft steht und was man selber auch bei bestem Willen nicht zustande bringen kann?
Grüsse
haereticus
Sehr geehrter Herr Uebbing,
bei einem Sicherheit von 99.5% wird kaum jemand von einem „0%igen Restrisiko“ sprechen 😉
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
ich denke, mit “gefühlten Nullen“ kommt man nicht weiter, da sich diese Minizahlen unserer Vorstellung völlig entziehen. Ich habe schon vor Jahren vorgeschlagen, dass man statt kleiner Zahlen, deren Sinn man nicht nachvollziehen kann, besser Vergleiche mit realen Situationen anstellt, also z.B. “Dieses Ereignis hat ein Restrisiko, welches kleiner ist als das Risiko, dass Ende Jahr die Sonne erlischt“, oder “Dieses Ereignis hat ein Restrisiko, welches kleiner ist als das Risiko, dass die Summe der natürlichen Zahlen 2 und 3 von der natürlichen Zahl 5 verschieden ist“.
Gewiss, diese beiden Beispiele, die ich seit Jahren bemühe, sind einfach zwei ad hoc Beispiele; man könnte gewiss bessere Beispiele überlegen und deren Restrisiko-Abschätzung auch deutlich optimieren.
Ich will eigentlich darauf hinaus, dass ersteres ein extrem kleines Restrisiko eines physikalischen Sachverhaltes und zweiteres ein extrem kleines Restrisiko eines mathematischen Sachverhaltes darstellt. Darunter kann man sich etwas vorstellen und auch ohne viel herumzurechnen wird ein Konsens bestehen, dass ein extrem kleines Restrisiko eines ingenieurmässigen Sachverhaltes viel grösser sein wird als ein extrem kleines Restrisiko eines physikalischen oder gar mathematischen Sachverhaltes. Oder beispielsweise das Restrisiko des Verhaltens einer Person: Auch hier wird ein Konsens bestehen, dass dieses viel höher sein wird als das Restrisiko eines ingenieurmässigen Sachverhaltes.
Warum ist das so ? Nun, das ist meines Erachtens eine Frage der Komplexität: mathematische Fragestellungen weisen typischerweise eine geringere Komplexität als physikalische Fragestellungen auf, diese eine geringere Komplexität als ingenieurmässige Fragestellungen und diese nochmals eine geringere Komplexität als Verhaltensweisen von Lebewesen auf.
Bei genügend geringer Komplexität kann man direkt nachrechnen, doch sobald die Komplexität ein gewisses Mass übersteigt, kann man es eben nicht mehr berechnen. Man kann dann versuchen, Simulationen mit vereinfachten Annahmen zu tätigen und wenn das auch nicht mehr geht, Risikoanalysen durchzuführen. Aber die Gleichung 2+3 mit einer Simulation oder die Flugbahn eines Fussballes mit einer Risikoanalyse lösen zu wollen ist beides nicht die optimale Vorgehensweise.
Freundliche Grüsse, Ralf Kannenberg
Hallo haereticus,
grundsätzlich gehe ich mit Ihren Feststellungen einig. Dennoch sei mir eine Frage erlaubt: Aus welchem Grunde sind Sie der Meinung, dass man den Ergebnissen ‚Es besteht ein Risiko‘ oder ‚Es besteht kein Risiko‘ keine Wahrscheinlichkeit zuordnen dürfe ? Ich persönlich würde das an sich auch nicht tun, sondern mich auf den zweielementigen Wertebereich {true, false} beschränken, aber was spricht Ihrer Meinung nach dagegen, die false mit „0“ und die true mit „>0“ (natürlich nicht mit 1 !!) zu identifizieren ?
Freundliche Grüsse, Ralf Kannenberg
Offtopic
Hallo galileo2609!
galileo2609 schrieb am 20. Juli 2011 um 23:18
Passt schon – von mir aus hätten Sie das Layout nicht mit jener Streichung beeinträchtigen müssen; vlt „stolpert“ ja gelegentlich jener Satire sogar jemand über die „Divina Commedia“ oder über Shakespeares „Julius Cäsar“ – das sind beides imo durchaus höchst empfehlenswerte Lektüren. (Allerdings schätze ich meine Sprachbegabung deutlich geringer ein als diejenige des Autoren des Hymus „dies irae“ – jener war imo ein sprachliches Ausnahmetalent.)
Aber btw – denken Sie wirklich, dass der (historische) Marcus Iunius Brutus Cäsar „werden“ wollte? Dafür sehe ich keinen Anhaltspunkt.
Grüsse,
S.
Herr Übbing
ich (und vmtl nicht nur ich) warte immer noch gespannt auf ihre Verortung hinsichtlich Prof. Rösslers.
Überlegen Sie mal, ob Sie wirklich wollen dass Menschen von Rössler zu solchem Geschwätz (comment von Robert Houston on July 20, 2011 9:18 pm) motiviert werden.
Wissen Sie was sich da zeigt?
– Aberglaube,
– Unbildung
– und Fanatismus,
wie man sie sonst so geballt nur bei kultischer Verehrung findet.
@Haeriticus
Die „Wie-Null“ oder die „LINCOLN-Null“ ist hier
lediglich die manifestierte Abstraktion der
Denkweise einiger meiner Diskussionspartner,
denen ich gerne damit ihre eigenen Positionen verdeutlichen
möchte. Wie Sie nachlesen können, richte ich mich gegen
solche inhaltlich gelebten Positionen.
Also: Diese „Fast-Nullen“ zu Risikobergrenzen dienen hier nur der
Verdeutlichung einiger bestimmter Positionen in der Diskussion.
Zu Ihrer Frage:
„…so frage ich mich, wieso man bei der ungeheuren Größe von N1 und N2 das Ergebnis von R ~ N2/N1 = 2*10E-36 in Zweifel zieht.“
– ein Antwortversuch:
Die publizierenden Physiker (JBSW) haben explizit mit
dem Wert (2*10E-36) eine Obergrenze einer Wahrscheinlichkeit
benannt, nämlich dazu, dass der RHIC einen Vakuumsübergang
auslösen könne; das Original-Zitat ist hier unzweifelhaft
eindeutig.
Nun, man kann jetzt zwei unterschiedliche Standpunkte
dazu beziehen:
1.) Der genannte Wert ist dermaßen absurd klein,
dass wir ihn pragmatisch als eine Null ansehen.
(Dies, so sehe ich, ist hier die Position meiner
Diskussionspartner. Von ihnen wird auch im LSAG-Report
2008 nicht bemängelt, dass offenbar dort das explizite
Konzept einer Wahrscheinlichkeitsgrenze aufgegeben worden ist –
was für mich zu einer strengen Wissenschaftlichkeit kontrastiert.
Grund für die Richtigkeit der Annahme
einer Risikoobergrenze – ganz einfach: Unvollständiges Wissen.)
2.) Für mich erkenne ich, dass der Wert (2*10E-36) nur
scheinbar absurd klein ist, denn es sind mit ihm
ebenso „absurd“ ausserordentlich große Werte an Gütern verknüpft,
so dass dieser winzige Wert (2E-36) – wenn auch lediglich als
Obergrenze – zur Vorsicht veranlassen m u s s.
Ganz simpel sehe ich mich in dieser Bewertung
bestätigt dadurch, dass nach einer bestimmten Extrapolation
holländischer Richtlinien für Planverfahren
für den RHIC-Fall ziemlich genau gleiche
kleine „absurde“ Werte für ein Grenzrisiko sich ergeben,
– für den LHC-Fall, welcher
um den Faktor 50000 kritischer als der RHIC-Fall hier erscheint –
bereits jedoch in aufrüttelnder Weise.
Ferner gehe ich davon aus, dass hinter den
Niederländischen Richtlinien für Grenzrisikenbestimmungen
in Planverfahren ein humanistisches
Wertesystem der dort gesehenen
Menschenrechte als Grundlage sich verbirgt,
so dass in den Niederlanden durchaus mit hohem Verantwortungsbewusstsein
die anspruchsvollen Bestimmungen zur Festsetzungen
von Grenzrisiken gebildet wurden, wie ich meinen darf.
Das heißt nicht, in anderen Ländern wäre man humanistisch
nicht fortschrittlicher, jedoch wie in
der Schweiz und England gibt es in den Niederlanden
geregelte Grenzrisiken – das sehe ich als methodischen
Vorteil an. Ich entnehme dies Ausführungen von Dr. N.
Pfeil, Tagungsband, „Sicherer als sicher“, BfR, genaue
Fundstelle hatte ich schon angegeben.
Die Hochenergiephysik ist wie die Medizin oder
wie die Biologie
(dort haben wir dies schon seit langem akzeptiert)
unlösbar mit ethischen Fragen verbunden –
dies stellt sich heute auch für die Physik umso mehr heraus,
so dass für mich erkennbar ist, dass eine gesellschaftliche
Diskussion über die Vorgehensweise in
der Hochenergiephysik (Aktives, extremes Eingreifen
in das Naturgeschehen) in Gang kommen wird.
Das heißt keineswegs, in jedem Falle die symmetrisch
konzipierten Teilchenkollisionen mit
hohem Lorentzfaktor zu verhindern,
sondern dass heißt für mich,
alle sinnvollen Maßnahmen zu ergreifen,
die zur Risikominderung beitragen;
dazu wäre zunächst eine ausführliche, probalistisch
und empirisch orientierte Analyse erforderlich
(eine Weiterentwicklung der Arbeit von Giddings u. Mangano)
und z.B. ein Katalog mit gelisteten, geeigneten Maßnahmen
zur Risikominderung seitens des Experimentbetreibers (CERN) wünschenswert. – Ein deutscher Astrophysiker hat z.B.
diesbezügliche Vorschläge schriftlich fixiert und publiziert.
Sehr geehrter Herr Uebbing,
nein nein, bloss nicht: Die Sicherheitsanalyse ist keine Risikoabschätzung, sondern eine physikalische Abschätzung zur sicheren Seite hin. Das Methodik der Sicherheitsanalysen ist eine andere als die Methodik einer Risikoabschätzung und entsprechend ist auch das Ergebnis von einem ganz anderen Typ, wie haereticus ja dargelegt hat.
Freundliche Grüsse, Ralf Kannenberg
Die Methodik
Bei der Vakuuminstabilität wurde der Begriff „sichere Seite“ von
Giddings und Mangano nicht erwähnt, bitte, wenn ich mich recht erinnere.
Der Begriff „sichere Seite“ gehörte doch zur Diskussion
der Schwarzen Löcher – bei der Vakuuminstabiltität ist er mir
derzeit nicht klar – habe ich an welcher Stelle, bitte, was überlesen ?
@ ralfkannenberg | 21. Juli 2011, 15:23
Es freut mich, dass Sie auf meinen Kommentar sachlich eingegangen sind.
Wenn man FALSE mit „0“ und True mit „0<TRUE<1" in Verbindung bringt, hat man die logischen Werte NULL und EINS mit reellen Zahlen in Verbindung gebracht. Dies ist m.E. die 'kleine Erbsünde' gewisser Risikoanalysen.
Ein Indiz dafür ist schon die Unsymmetrie der Zuordnung, was aber
weiter nur von Bedeutung ist, wenn man den Spiess umdreht und anstatt
Risikoanalyse zur Zuverlässlichkeitsanalyse übergeht.
Wahrscheinlichkeiten p sind m.E. immer im Bereich 0.0 < p < 1.0 anzusiedeln,
soferne sie aus realen Ereignissen hergeleitet werden. Wahrscheinlichkeiten
von p=1.0 oder p=0.0 können immer nur postuliert werden, können aber prinzipiell nicht nachgewiesen werden.
Natürlich kann man argumentieren, dass z.B. die Wahrscheinlichkeit bei einem
Würfelwurf eine 0 oder 7 herauskommt 0.0 ist. Dabei verlässt man sich aber
auf die reine Logik, indem man die Situation des 'Experiments' Würfelwurf
als Realität einstuft und 'strange events' ausschliesst. Auch die von
Ihnen angesprochene menschliche Fehlerquote könnte man mit einer gewissen
Lockerheit in die Kategorie 'strange events' miteibeziehen. Aus dieser Sicht
spricht nichts dagegen, die logische NULL mit der Wahrscheinlichkeit 0.0
und die logische EINS mit derWahrscheinlichkeit 1.0 zu bezeichnen.
In meinem Beitrag hatte ich auch angedeutet, dass dies in der Praxis durchaus geduldet wird.
Denkt man aber daran, und das konnte ich Ihren Kommentaren mit Zustimmung entnehmen, dass keine gedachte Situation als absolut (mit der Wahrscheinlichkeit 1.0)
festgelgt werden kann (Ihr Beispiel 2+3), so kommt der Faktor des menschlichen Ermessens, was als real gilt, mit in's Spiel. Dann aber beginnt sich das Karussell zu drehen, wie es sich in diesem Blog zeigt.
Sehen wir von diesen interessanten Betrachtungen (2+3) einmal ab, und glauben, dass 2+3=5 immer richtig ist, so bleiben wir auf dem Boden eines Satzes von plausiblen Ausgangsdaten und können mittels der uns zur Verfügung stehenden logischen und mathematischen Verfahren zu Ergebnissen kommen, die für unsere Begriffe verlässlich sind.
Mehr kann man m.E. nicht tun.
Beste Grüsse
haereticus
Sehr geehrter Herr Uebbing,
das ist zutreffend: Die Arbeit von Dr.Giddings/Dr.Mangano handelt nicht von Vakuuminstabilitäten und macht entsprechend auch keine Aussage darüber, ob der Betrieb des LHC Vakuuminstabilitäten auslösen könnte oder nicht.
Thema der laufenden Diskussion ist aber meinem Verständnis nach, ob die Arbeit von Dr.Giddings/Dr.Mangano in ihrem Themenbereich um eine Risikoanalyse ergänzt werden sollte oder nicht.
Freundliche Grüsse, Ralf Kannenberg
Uebbing,
selbstverständlich haben sie da wieder etwas „überlesen“. Steht alles drin in der Sicherheitsanalyse.
galileo2609
Sehr geehrter Herr Kannenberg,
das war meine Unachtsamkeit, gleich zwei Themenbereiche
zu berühren und eine Antwort dann anschließend dem
falschen Themenbereich zuzuweisen. –
Für mich halte ich fest:
Nach JBSW gibt es eine prinzipielle, sehr kleine
Unsicherheit bzgl. der Vakuumsinstabilität, die einem
perfekten Sicherheitsergebnis (LHC-Risiko „exakt Null“
gem. dem Physiker Don Lincoln) entgegensteht.
Zu der „sicheren Seite“ (bei G&M) möchte ich anmerken, dass Nebenbedingungen existieren, die wiederum selbst
mit gewissen Unschärfen versehen sind – oben hatte
die Frage nach dem derzeitigen Stand der Homogenität
hochenergetischer Strahlung gestellt – wie sicher kann
ausgeschlossen (quantifiziert) werden, dass Neutronensterne sich
in Räumen ohne hochenergetische Teilchen lange Zeit aufhalten ?
Die zugehörige Wahrscheinlichkeit dieses Ausschlusses wird mit 1 angesetzt – aber wie exakt, wie sicher ist hier der Wert von 1 tatsächlich ?
Wurde versucht ein Vertrauensintervall hierzu zu ermitteln ?
(Leider finde ich keine derartige Verlässlichkeitsangabe
bei G&M, aber offenbar setzen diese Forscher implizit den
Wert mit exakt mathematisch 1 identisch – ungewöhnlich.)
Mit freundlichem Gruß – Rudolf Uebbing
Uebbing,
es gehört nicht sonderlich viel Grips dazu, um zu begreifen, dass diese Wahrscheinlichkeit eine ratio bedeutet, die dann von Bedeutung gewesen wäre, wenn die Natur eine dieser von ihnen gefürchteten Vakuuminstabilitäten realisiert hätte. In unserem Vergangenheitslichtkegel betrug diese Wahrscheinlichkeit exakt Null. Das wissen wir so exakt, weil wir hier von einer Vollerhebung sprechen. Die RHIC-Kollisionen waren eine Stichprobe, auf die, im Gegensatz zum Induktionsschluss, die Deduktion angewendet werden kann.
Sie haben immer noch nicht kapiert, dass ihre „niederländischen Richtlinien“ im Falle des Risikos, das sie für Teilchenbeschleuniger so gerne sehen wollen, nichts taugen. Aus den letzten ca. 14 Mrd. Jahren ist das individuelle Risiko eines Menschen, an einer Vakuuminstabilität zu sterben, nicht 10-6 oder kleiner, sondern exakt Null. Wo kein individuelles Risiko besteht, besteht auch ein gesellschaftliches Risiko von exakt Null, so wie es Pfeil vorschwebt.
Im übrigen ist ihre „Ziegenpeterextrapolation“ nicht besonders belastbar. Hätten sie Formaljunkie das mal, wie von mir angeregt, auf den Zukunftslichtkegel angewendet, würden sie sehen, wie sich ihr „Grenzrisiko“ dynamisch über Grössenordnungen entwickelt. Präzision sieht anders aus.
Wieder einmal verwechseln sie Äpfel mit Birnen. In der Medizin wird am Menschen experimentiert. Ethikkommisionen und das ganze Tralala sind besonders auf die Würde des Menschen konzentriert. Geht es hier um konkrete Risiken, setzen die Versuchsreihen, z. B. bei der Erprobung neuer Medikamente oder Behandlungsmethoden bei doch wesentlich kleineren Fallzahlen an. Klingt aber gut, Uebbing, nicht wahr? Wieder so eine Agitation, die bei irgendeinem anderen Genie schon verfangen wird.
Sehr schön, Uebbing. So langsam lassen sie die Hosen runter! Wie weit sind sie noch von der Esoterik-Welt der Gabriele Schröter entfernt? Bereitet es ihnen auch seelische Schmerzen, dass im LHC die Protonen auf Kreisbahnen gezwungen werden? 🙂
galileo2609
Sehr geehrter Herr Uebbing,
kein Problem, wegen sowas tauscht man sich ja aus.
Das ist der richtige Ansatz: Die Suche nach einem systematischen Fehler.
In diesem Falle wird die Antwort dadurch vereinfacht, dass man sehr grossräumige Strukturen benötigt, um ein Szenario zu konstruieren, in dem Neutronensterne nicht von kosmischer Strahlung getroffen werden. Beachten Sie dabei, dass ja auch die Neutronensterne (und die geeigneten Weissen Zwerge) in der Milchstrasse nicht ortsfest bleiben, sondern sich auch bewegen.
Freundliche Grüsse, Ralf Kannenberg
Hallo Ralf,
ich erhöhe auf alle Neutronensterne.
Grüsse galileo2609