Otto E. Rössler – Anthologie eines Welträtsellösers, die Fortsetzung
Nach über 2.000 Kommentaren hat die Blog-Software ihre Grenzen erreicht. Der Artikel „Otto E. Rössler – Anthologie eines Welträtsellösers“ war temporär nicht mehr aufrufbar. Deshalb geht es mit den Kommentaren nun hier weiter. Die vorangegangene Diskussion ist weiter unter dem Originalbeitrag einsehbar und zitierbar.
Zu Schwinger-Mechanismus und Unruh-Effekt
Jeder Hinweis, der die Verlässlichkeit zu der
Existenzsicherheit von Hawkingstrahlung erhöht,
muss willkommen sein –
inwieweit der Schwinger-Mechanismus dies leistet, wäre doch am besten
von einem Physiker, bitte, kurz zu erläutern.
(Dazu möchte ich mich noch nach weiterer
Klärung äußern.)
Die mikroskopisch kleinen Schwarzen Löcher,
nur erzeugbar im Falle der Existenz weiterer
Raumzeitdimensionen, werden sich keinesfalls
so verhalten müssen, wie Beitrag #53
dies vorschreibt:
„… experimentiell bestätigt, dass Elementarteilchen der MBH-Klasse per Hawking-Strahlung einfach das Zeitliche segnen.“
Grund:
Wir wissen, dass Prof. Dr. Stöcker eine neue Klasse
von Teilchen vorschlägt: relicts oder remnants,
stabile Grundformen von mikroskopischen Schwarzen Löchern,
welche offenbar durch Hawking-Strahlung n i c h t
„das Zeitliche segnen“, sondern uns offenbar
unzerstörbar erhalten bleiben – auch mit der
Eigenschaft, dass sie geringfügig, aber dauerhaft Masse in Energie verwandeln. (Stichwort / Patent –
„Hawking-Reaktor“)
Nun, gemäß Beitrag #53 wäre zu schlussfolgern,
dass mittlerweile „experimentiell“ relicts
und remnants auszuschließen sind, weil sie als
mBH „das Zeitliche segnen“. Was sagen die Experten ?
UebbingTM,
sehr schönes Rössler-Manöver! Das ganze ist ihnen seit 2008 bekannt, aber konsequent von ihnen und ihren Genossen ignoriert worden:
Also, UebbingTM, die Physiker haben längst gesprochen, sie haben das ignoriert und wollen das erneut aussitzen. Sie wissen, was ich von einer solchen Sorte wie ihnen halte? Gar nichts!
Keineswegs, UebbingTM, schliesslich ist ja nichts unmöglich, wenn man nicht ganz dicht ist!
Die pöööse Hawking-Strahlung darf natürlich auf keinen Fall existieren, denn dann würden die völlig verblödeten Irren aus dem LHC-Widerstand ja in eine tiefe Sinnkrise gestürzt werden. 🙂
galileo2609
„All the Cosmologists today agree that the Big Bang itself probably erupted from a singular mathematical point as a „vacuum fluctuation“ of empty space, the aether, or whatever you want to call it.“
Wenn Mechanismen tatsächlich so s i c h e r zur Wirkung kämen,
so dass sie den Zerfall der künstlichen oder natürlichen
Kollisionsprodukte immer gewährleisteten, wieso ist es dann sinnvoll gewesen, ein Patent anzumelden – seitens eines renommierten Spezialisten der Teilchenphysik, welches Patent darauf aufbaut, dass k e i n Zerfall eintritt ? (War hier kein Schwinger-Mechanismus bekannt oder ist er hier nicht wirksam ?
Welche Information fehlt hier für ein korrektes Verständnis ?)
Wie so oft ist die Frage zu stellen, wie sieht der Ereignisbaum im Falle von Teilchenkollisionen denn genau aus, der die derzeitige Erkenntnislage am besten wieder gibt – welche Wahrscheinlichkeiten sind speziellen Einzelereignissen zuzuordnen, welche Verästelungen ergeben einen Gesamtereignisbaum, der die Realität vollständig umfassend und am besten darstellt ?
Soll es wirklich nicht möglich sein, den Ereignisbaum
der Eventualitäten in einem probalistischen Modell
abzubilden ?
Anstrengungen hierzu würden jedenfalls mehr Übersicht verschaffen und auch dazu beitragen können, Verlässlichkeitsangaben einfließen zu lassen.
@’Rudolf Uebbing?:
erneut fehlt der http://www.webadresse.link
;
LOL
UebbingTM,
sehen sie, wir können dieses Spiel ja ewig fortsetzen. Sie kramen längst widerlegten und/oder korrigierten Unfug raus, und wir weisen sie darauf hin, dass das alles längst abgefrühstückt ist. Nebenbei zeigt natürlich jeder dieser Schläge, wie weit sie von den Grundsätzen guter wissenschaftlicher Praxis entfernt sind und in bester Übereinstimmung mit dem Rössler-Manöver nur billigste Agitation betreiben wollen. Das geht gar nicht.
Machen wir das an ihrem letzten Kommentar deutlich. Ich hatte ihnen und ihrem total verblödeten Anhang 2008 folgendes auf achtphasen geschrieben:
Ich erwarte selbstverständlich nicht, dass sie das in irgendeiner Form berücksichtigen. Ehrlich gesagt, ist mir das auch recht egal. Sie sind nur ein demagogischer Flatliner, der in meiner Achtung unter so ziemlich alles sinkt, was mir bisher über den Weg gelaufen ist.
galileo2609
achtphasen,
ich will mich ja nicht in ihr persönliches Uebbing-Bashing einmischen. Intellektuell stehen sie mit dem Dortmunder Vollpfosten gemeinsam am untersten Ende der Nahrungskette. Wie nicht zuletzt ihre Verlinkung von Dixon gezeigt hat.
galileo2609
UebbingTM,
es war eben nicht besonders sinnvoll, siehe oben und 2008, Schwachmat!
Der ‚Schwinger-Mechanismus‘ ist für Stöcker nicht relevant. Er brauchte geladene MBH. Sie und ihre Volltrottel von Maschinenstürmer brauchen die ungeladenen! So läuft das game! Kapiert, UebbingTM?
galileo2609
ich trage nur die http://www.libks.sophies nach
@galileo: betreffs dieser Sequenz Ihro unermesslich wertvollen Texteingabe:
freu ich mich noch immer über Ihro magnetische Flaschen und das unschädlichkeitsgewährleistende Einfüllen Stockerscher Relikte in eben diese.
sorry, der link war falsch:
korrekt: http://www.achtphasen.net/index.php/kunst/2008/11/15/die_bundeslade_konnte_ein_elektrmagnisch#c460
achtphasen,
dann dürfte das Thema Stöckers remnants ja wohl abgehakt sein.
Bleibt noch zu klären, ob sie
die Verlinkung von diesem Irren, Dixon, aufrechterhalten oder zurückziehen. Also: gibt es ein Eingeständniss ihres Irrtums oder bilden sie ebenfalls das Rössler-Manöver nach, das ihr Genosse UebbingTM so unvorteilhaft wie zwanghaft zu kopieren versucht?
galileo2609
achtphasen,
btw: wie steht es denn jetzt um ihre Nabelschnur zu Otto E. Rössler?
Wollen sie das aussitzen? So wie ihr Mentor Rössler und ihre sonstigen Genossen?
galileo2609
Ein Ereignisbaum gibt Übersicht
Auch wenn das hier diskutierte Patent als „voreilig“ bezeichnet wird,
so wäre innerhalb der Darstellung eines Ereignisbaumes das
zugehörige Ereignis (geladene mBH oder andere) abbildbar und mit einer Wahrscheinlichkeit
(genauer: mit einem Wahrscheinlichkeitsinterval.) abbildbar. –
Im Rahmen einer Risikoanalyse, die als umfassend zu bezeichnend ist, sind m.E. derartig probalistisch orientierte Präsentationen ein Qualitätsmerkmal,
welches ich hier leider vermisse.
@ Rudolf Uebbing | 21. August 2011
Sie schwadronieren schon wieder einmal mit Begriffen, die Sie in dilettantischer Weise in Ihre pseudorationale Risikosuppe einzubrocken pflegen, die dann andere auslöffeln sollen.
Bislang haben Sie aber nur bewiesen, dass Sie auf den Fachgebieten
Wahrscheinlichkeitstheorie und Statistik ein Hochstapler und
Scharlatan sind, dem kein Blödsinn zu schade ist, um Ihren
absurden Risiko-Vorstellungen Gewicht zu verleihen.
Wenn Sie meiner kritischen Darstellung Ihrer Fähigkeiten widersprechen
wollen, so tun Sie das bitte einmal, indem Sie Ihre Bringschulden
in dieser Sache endlich begleichen.
Machen Sie sich also an die Ihnen gestellten Testaufgaben und schwafeln
Sie nicht eher von Risikoanalyse, Probabilistik, Wahrscheinlichkeitsintervallen
und dergleichen, bevor der Beweis vorliegt, dass Sie eine minimale
Befähigung aufweisen, diskutierbare Aussagen zu formulieren.
An letzterem hapert es nämlich bei Ihnen gewaltig, was immer wieder
auffällt und eine sinnvolle Diskussion mit Ihnen erschwert bzw.
unmöglich macht.
Also, an die Arbeit!
Ein Ereignisbaum mit konkretisierenden Wahrscheinlichkeitsangaben – wünschenswert !
Nun, aufbauend auf der Arbeit von Jaffe, Busza, Sandweiss
und Wilczek haben wir bereits für eine der vier meist
diskutierten Gefahrenverdachtskategorien die hier oft genannte,
bezifferte Angabe, welche die Obergrenze eines
Wahrscheinlichkeitsintervalls bezeichnet.
Somit fehlen drei weitere konkrete Angaben, eben zu den drei
übrigen Gefahrenverdachtskategorien, welche sind
a) Strangelet
b) Schwarze Löcher
c) Exotische Teilchen
und welche im Detail untersucht wurden, jedoch
o h n e probalistisch orientierte, konkrete Bezifferungen
– leider im Unterschied zu der Untersuchungssituation bei der
Vakuumsinstabilität.
Die Gefahrenverdachtskategorie Vakuumsinstabilität wurde mithin
beziffert, somit haben wir eine erste Ungewissheitslücke
tatsächlich konkretisierend ausgefüllt (dank JBSW).
Zu a):
Wenn wir uns mit der Kategorie a) (Strangelet) auseinandersetzen,
so teilen uns JBSW zusätzliche, hochinteressante Wahrscheinlichkeitsangaben (zu Case I bis IV)
noch mit, die desweiteren zu entwickeln sind,
so dass schlussendlich auch hier zu einer konkreten Angabe
einer Obergrenze, eben bezüglich einer oberen Wahrscheinlichkeit
– i.V.m. Strangelet-Gefahrenverdachtsmomenten –
gelangt werden kann, möchte ich prognostizieren.
Der Aufwand ist angesichts der in Frage gestellten Güter
bei weitem gerechtfertigt.
Zu b):
Wenn wir uns mit der Gefahrenverdachtskategorie b) (Schwarze Löcher)
beschäftigen, erkennen wir,
dass nach ergänzender Heranziehung von
Verlässlichkeitsangaben in der Arbeit von Giddings und
Mangano auch hier Probabilitäten hergeleitet werden können,
sofern man diese in den Quellen bislang einfacherweise belassenen Angaben
benutzt u n d auswertet.
Zu c):
Ähnliches ist sehr wohl denkbar im Falle der Kategorie
c) (Exotische Teilchen).
Völlige Ungewissheiten, falls wider Erwarten Dunkle Materie
oder Dunkle Energie angestoßen werden sollte – dies allein
deswegen, weil wegen der unnatürlichen Geschwindigkeitsverteilung
der künstlichen Kollisionsprodukte sich a n d e r e
Entwicklungspfade auftun können als bei der Kosmischen
Strahlung – scheinen hier bestehen zu können,
und zwar deswegen, weil wir nur 95 Prozent der energetischen
und materiellen Substanzen des Universums überhaupt verstehen.
Dies bedarf noch einer eigenen besonderen Behandlung,
wie ich bitte meinen möchte, welche auch bislang nur wenig angesprochen wurde.
@ Uebbing:
Es war abzusehen, dass Sie wieder einmal kneiffen und aussitzen.
Sie sind wohl doch schon total überfordert, wenn Sie einmal vor
ien paar einfache Aufgaben gestellt werden, die diszipliniertes,
logisches Denken erfordern.
Dennoch wagen Sie sich mit Ihren äusserst dürftigem Wissen
an eine Thematik heran, bei der Sie nur als dummer August
wahrgenommen werden können.
Da ich, wie Sie mir glauben dürfen, im Grunde ein Menschenfreund bin,
dauert es mich, mitanzusehen, wie Sie sich selber demontieren und
welches Ärgernis Sie abgeben, wenn Sie andauernd gegen Wissenschaft
und Technik anrennen, wie ein verzogener Bub mit dem Kopf gegen
die Wand rennt, wenn er seinen Willen nicht kriegt.
Da kann es Sie doch nicht wundern, wenn Sie ausser stets vergeblichen
Versuchen, Ihnen Ihre Irrtümer klarzulegen, zuweilen auch Spott und
Hohn erfahren, wenn das Maß des Erträglichen wieder einmal voll ist.
Nun will ich es Ihnen leicht machen, wieder in eine vernünftige
Gangart in der Diskussion zurückzufinden, indem ich Ihnen nahelege,
folgende, sachbezogene Detailangaben aus Ihrer Sicht der Dinge zu machen.
1.
Falls Sie immer noch an der sinnvollen Verwendbarkeit
der Poisson-Verteilung, bzw. des Poisson-Prozesses beim Thema
Vakuumtransition festhalten, so machen Sie doch bitte einen Vorschlag
für den Wert des Parameters µ (Anzahl der Transitionen/Jahr).
Erst dann können wir weiterkommen.
(Falls nicht, dann ziehen Sie halt Ihren Vorschlag zur Verwendung
der Poisson-Verteilung zurück. Das wäre dann auch einmal ein Signal.)
2.
Was sagt Ihnen die diskrete Binomialverteilung
PK{N;X=K } = (N!/(X!(N-X)!)p^X(1-p)^(N-X)
über die a priori-Wahrscheinlichkeit p aus, wenn nur N und X bekannt sind?
Ich setzte einmal darauf, dass Sie sich die kleine Mühe machen werden,
hier zu demonstrieren, dass Sie in der Lage sind, einfache, themenbezogene
Sachverhalte zu erfassen und wiederzugeben.
Ansonsten wäre ja jede weitere Diskussion sinn und zwecklos.
N.B.: Die Hoffnung stirbt zuletzt.
An Haereticus:
Die Fragestellungen zu 1.) und zu 2.) sind interessant,
aber bereits als abgearbeitet zu betrachten.
Grund:
Die realisierte Auswahlmenge für die Stichprobe, also
hier 10^47 Ereignisse, darf n i c h t mit der Gesamtmenge
verwechselt werden, die tatsächlich unbekannt ist und die sich aus
den unbekannten Ereignissen der Zukunft erst herleiten ließe.
Deswegen gibt es für den Fall der Nullziehungen (n`=0) bei
der Poisson-Verteilung ein
(Zitat gem. L.Sachs, S. 42, aaO:)
„95%-VB“- Intervall „für Lambda“ mit der unteren Grenze von
0 (diese Null ist zwischen uns Konsens) und der oberen
Grenze von ca. 3 (diese drei ist zwischen uns nicht Konsens).
„95%-VB“ bedeutet hier einen Vertrauensbereich (das Intervall
des prognostizierbaren Mittelwertes)
mit einer Sicherheitswahrscheinlichkeit von 95 Prozent.
Lambda ist dabei der Mittelwert der Poisson-Verteilung und
zugleich auch Erwartungswert – hier für die
u n b e k a n n t e Grundgesamtheit.
Entsprechendes gilt für das Rechenverfahren nach
Clopper-Pearson, wo auch eine unbekannte Grundgesamtheit
vorausgesetzt ist.
Anders formuliert – mein Ergebnis zur Poisson-Verteilung:
Lambda liegt gem. L. Sachs in einem Vertrauensbereich
mit einer 95-%-Sicherheitswahrscheinlichkeit in einem
Intervall von Null bis ca. 3, d.h. der Mittelwert der Poisson-Verteilung muss hier n i c h t Null sein – wohlgemerkt bei Unkenntnis der
Gesamtmenge der Ereignisse.
Noch eine grundsätzliche Anmerkung –
hier zur worst-case-Annahme und mehr:
Hier möchte ich davon ausgehen,
dass im Sinne der Sicherheit –
wie Giddings und Mangano und andere, z.B. JBSW, verfahren –
das Prinzip der worst-case-Annahme
unter uns Konsens ist,
d.h. dass der als größt anzunehmender Schadensfall
bzw. genau das größt anzunehmende Risiko diskutabel ist.
Wende ich anders als L. Sachs
nicht die Poisson-Verteilung an oder
nicht das Rechenverfahren nach Clopper-Pearson,
sondern zum Beispiel das
Verfahren nach der maximalen Mutmaßlichkeit
(MLS, MLE, maximum likelihood estimation),
so erhalte ich den Erwartungswert Null,
da n`=0, weil null kritische Ziehungen festzustellen sind.
Dies widerspricht jedoch dem Prinzip der
worst-case-Annahme – daher führt z.B.
das Rechenverfahren nach Clopper-Pearson
für Exakte Vertrauensbereiche zu relativen
Häufigkeiten in der gelebten Wirklichkeit
zu einer realisierbaren größeren Sicherheit –
d.h. in der Konsequenz, eben wie derzeit keine
Nullmaßnahmen des CERNer Risikomanagementes,
sondern durchaus zu risikomindernden Maßnahmen,
wie Dr. R. Plaga sie beispielsweise vorgestellt hatte.
Oder z.B. die Entwicklung eines PSA-Modelles
und mit diesem Mittel die Umsetzung der
Risikobeobachtung als eine dauernde Aufgabe.
Kurze Zusammenfassung von ‚Uebbings‘ #115-#117:
„blubb…brabbel…schwurbeldiblubb…spronz…“
Deutung des Gebrabbels :
‚Uebbing‘ kann diese Frage
#114 | haereticus | 21. August 2011, 11:54
nicht beantworten.
UebbingTM,
wieder ein perfektes Rössler-Manöver. Einfach Falsches behaupten, bis der Arzt kommt. Um es noch authentischer zu machen, sollten sie ihren Kommentaren folgenden Satz anhängen: „Ich will widerlegt werden!“
galileo2609
@ Uebbing #115, 116, #117
Zu Nr.2: Schweigen Ihrerseits
Zu Nr.1: Geschwafel und Gebrabbel
Das hat auch Solkar so ausgedrückt.
Nocheinmal:
Nennen Sie einen Wert für den Parameter der Poisson-Verteilung,
den Sie selber für plausibel halten. Aber bitte einen Wert und kein
undefinierbares Wischi-Waschi, das Sie sich aus Quellen, deren Inhalt Sie
nicht richtig erfassen können, zusammenreimen.
Also bitte, einen Wert für µ angeben, dann weiter darüber diskutieren!
Reizt Sie das nicht, Sie Wisecrack?
Dass Sie nicht einmal im Ansatz verstanden haben, was die Binomialverteilung aussagt, haben Sie durch Ihr Negieren der Frage hier und jetzt dokumentiert.
Trotzdem aber haben Sie sich erdreistet, endlos darüber zu schwadronieren.
Pfui! Und so einer gibt sich als potentieller Weltretter aus!
Sehr geehrter Herr Uebbing,
Sie haben bei Ihren dortigen Ausführungen übersehen, dass Sie nur den Spezialfall p(1) = 1/n betrachten. Den allgemeinen Fall decken Sie mit Ihren Ausführungen also nicht ab.
Freundliche Grüsse, Ralf Kannenberg
Für die stillen Mitleser, die diese Erörteungen nicht von Anfang an mitbekommen haben:
Potentielle mBH, die geladen sind, stellen keinerlei Sicherheitsrisiko dar, weil solche in der Erde gestoppt werden, dies via genanntem Schwinger-Mechanismus. Und zwar schon seit Milliarden von Jahren. Trotzdem ist nichts passiert.
Sicherheitsüberlegungen müssen also für die ungeladenen mBH angestellt werden, und dies wurde in den beiden Sicherheitsanalysen (Giddings/Mangano sowie Koch/Stöcker/Bleicher) mit unterschiedlichen Ansätzen getan.
Hier ist also alles im grünen Bereich und dies seit Jahren, auch wenn gewisse Exponenten der Kritik das immer wieder „vergessen“.
Freundliche Grüsse, Ralf
Sehr geehrter Herr Uebbing,
es sei daran erinnert, dass eine analytische AUswertung stets bessere Ergebnisse liefert als ein probabilistischer Ansatz !
Freundliche Grüsse, Ralf Kannenberg
Hier
#122 | ralfkannenberg | 21. August 2011, 16:13
geht was durcheinander
Hallo Ralf!
Richtig ist, dass geladene schwarze Löcher, die nicht zerstrahlen oder (schnell) neutralisiert würden in Erde (Sonne, Mond wtf-where-so-ever) steckengeblieben wären und, wären jene „gefährlich“, es uns also schon lange nicht mehr gäbe, „Hurrah, wir leben noch!“ – also … -> „aA“
Falsch ist aber , dass das Steckenbleiben „via Schwinger-Mechanismus“ erfolgen würde.
Das „Steckenbleiben“ würde durch ganz „ordinäre“ EM-Wechselwirkung verursacht, wie in [KBS09] 4-D1-A; eq(7) – eq(9) via Bethe-Bloch Formel angesetzt und durchgerechnet.
Ein Modell zur Quantifizierung des (reichlich eigenartigen) Szenarios „Schwinger ja, HR nein“ liefern Koch at al. in [KBS09] 4-D1-B; eq(10) – eq(15). Auch das ist aber keine Stoppung „via Schwinger-Mechanismus“ sondern eine Stoppung „via Akkretion“.
Grüsse,
S.
[KBS09] Benjamin Koch, Marcus Bleicher, and Horst Stocker. Exclusion of black holedisaster scenarios at the LHC. Phys. Lett., B672:71–76, 2009.
Ein Antwortversuch auf die Beiträge #114, #118 ff:
Untergliedern soll hier helfen:
a)
Das statistische Rechenverfahren für die
Beurteilung von Stichproben, die einer
Binominalverteilungen unterliegen, gem. Clopper-Pearson
ist u n a b h ä n g i g von einer Annahme wie p=1/n.
sh. bitte auch:
http://de.wikipedia.org/wiki/Konfidenzintervall_einer_unbekannten_Wahrscheinlichkeit
Dieses Verfahren, welches als „exakt“ bezeichnet wird,
behandelt auch den Fall,
dass keine Ziehung eines bestimmten Merkmals aus
einer unbekannten Gesamtmenge beobachtet werden
konnte (n’=0 bei einem Stichprobenumfang von n – mithin
wie im Falle des Vakuumswechsels bei JBSW).
Andere Verfahren, die die Normalverteilung benutzten,
nähern i.d.R. an.
Das Verfahren nach Clopper-Pearson ergibt regelmäßig
ein Intervall größer als Null für Wahrscheinlichkeiten,
die die Zahlenangabe von Jaffe, Busza, Sandweiss und Wilczek
unterstützen (RHIC – „bounded“ „probability“).
Als Eingangswerte dienen hier lediglich zwei
Zahlen – n’=0 und n=10^47 sowie die wählbare
Sicherheitswahrscheinlichkeit des zu ermittelnden Vertrauensbereiches – m e h r nicht.
b)
Die Vorstellung einer Binominalformel PK…= im
Beitrag #114 kann streng
in das Rechenverfahren gem. Clopper-Pearson
weiter entwickelt werden u n d
zeigt dann d i e s e l b e n Ergebnisse
für die Fälle n’=0 (Nullziehung) auf,
was nämlich bedeutet,
dass n i c h t mit Sicherheit bei unbekannten Gesamtmengen
darauf geschlossen werden kann,
dass weiterhin zukünftig nur noch Nullziehungen erfolgen –
genau in Übereinstimmung mit der Angabe der
„bounded“ „probability“ gem. Jaffe, Busza, Sandweiss u.
Wilczek.
c)
Analytische Verfahren unterliegen ebenfalls
statistischen Gesetzen, sobald sie Messungen
kontinuierlicher Größen oder
deren Resultate weiterverarbeiten, weil Messungen
grundsätzlich zufälligen (und anderen) Fehlern unterworfen sind.
Bei einer vorhandenen prinzipiellen Unkenntnis,
wie im gegebenen Fall der Teilchenkollisionen,
sind statistische Signifikanzen regelmäßig
zu berücksichtigen.
Bei Ungewissheiten oder Unsicherheiten bleiben
in der Regel oft sogar nur die stochastisch orientierten
Prüfungsverfahren übrig (z.B. Monte-Carlo-Methode).
Selbst analytische Verfahren erzeugen im
Resultat statistische Bandbreiten, sobald nur
e i n Messwert (wie o.g.) auf das Resultat einwirkt.
Ein analytisches Verfahren, z.B. mit einem
Größer/Kleiner-Vergleich wie bei Giddings und Mangano,
kann nach Ermittlung der Standardabweichungen der
beiden zu vergleichenden Werte auf
seine Signifikanz statistisch genau bewertet
werden –
leider finden sich bei Giddings
und Mangano keine derartigen Untersuchungen;
die Verlässlichkeitsangaben erscheinen diesen Autoren
von vornherein derart sicher zu sein,
dass sie auf eine weitere Untersuchung verzichten
(meine Interpretation).
Im Falle der enormen Bedeutung des diskutierten Bescheuniger-Risikos ist dieser Verzicht bedenklich, da auch
kleine Werte (wie klein wirklich?) bedeutsam sein können.
d)
Die hier im Blog ablesbare Intention einiger weniger
Diskussionspartner kann
dahingehend von mir interpretiert werden, dass
man sich eventuell wünscht,
die Angabe einer „bounded“ „probability“
gem. Jaffe, Busza, Sandweiss und Wilczek
auf Basis von statistischen Erkenntnissen
zu negieren – ich hoffe, dass ich damit irre.
Ich möchte hingegen betonen, dass die
vorliegenden statistische Betrachtungen
die Zahlenangabe von Jaffe, Busza, Sandweiss
und Jaffe zu einer oberen Gefahrenwahrscheinlichkeit
(RHIC / Vakuumwechsel) eindeutig untermauern,
sofern man – nur vorläufig – Zufallsprinzipien (i.S. einer
Nullhypothese) zugrunde legt.
Aus dem Sachverhalt von ausschließlich unkritischen
„Ziehungen“ eine Gewissheit über eine völlige Sicherheit
im Falle der Vakuumsinstabilitität herzuleiten,
gelingt nur dann,
wenn das Prinzip der worst-case-Annahmen
aufgegeben wird – dann ist die Beliebigkeit
gegeben, auf andere statistische Verteilungen,
z.B. MLE (Maximum Likelihood Estimation),
auszuweichen. Eine Abkehr vom Prinzip
der worst-case-Annahme muss aber zuvor
erst begründet werden.
Wer auf der sicheren Seite sein will und
dies auch beansprucht,
muss logischerweise gem. dem Prinzip
der worst-case-Annahmen verfahren.
Dies ist nach meinem Verständnis auch
klare Intention der wissenschaftlichen
Autoren JBSW und G&M und anderen.
e)
Ich gebe bitte zu bedenken:
Die Quantenphysik ist orientiert
an bestimmten Wahrscheinlichkeitsfunktionen
gem. der Schrödinger-Gleichung bzw. sie
ist orientiert an der Unbestimmtheitsrelation
gem. Heisenberg, welche beide das existentielle Wesen von Quanten mitbeschreiben. –
Die QED scheint dies ja im Rahmen
der Messgenauigkeiten äußerst gut zu bestätigen.
Deswegen ist besonders im mikroskopischen Bereich
viel mehr möglich, als die übliche Vorstellungskraft
träumen lässt – bis hin zur Hawking-Strahlung,
welche gelegentlich kritisiert oder ihre Wirkung
eingeschränkt wird (Vilkovisky: 50 Proz.).
Nach wissenschaftlicherseits dokumentierter Meinung
von Mai d. J. steht der beobachtenden und der
experimentielle Nachweis der „quantum evaporation“ aus.
f)
In der Darstellung eines Ereignisbaumes – im
Rahmen einer Sicherheitsanalyse, hier insbesondere
zu Teilchenkollisionen bei gegenläufigen Strahlen –
finden elektrisch geladene als auch ungeladene mBH,
sei es als relicts bzw. als remnant, i m m e r einen Platz;
Ereignisbäume sind offen auch für widersprüchliche
und einander sich ausschließende Ereignisse,
welche grundsätzlich probalistisch beschrieben werden können.
Auswirkungen dieser beiden denkbaren, grundsätzlichen Formen
von mBH können dann viel besser abgeschätzt werden,
als wenn man sich auf reine Aussagenlogik verläßt.
Schwinger-Mechanismus und andere Effekte fließen nach ihrer Berücksichtigung wie von selbst in die Darstellung von Ereignisbäumen ein.
Es bietet sich an, Ereignisbäume in digitaler
Form darzustellen – graphisch gedruckte Übersichten werden
ansonsten sehr schnell Papierformate überschreiten können;
mithin hilft hier: Ein probalistisches Modell.
g)
Ein analytisches Verfahren, welches nur mit
den zweistelligen Logikwerten der Aussagenlogik
verknüpft wird, kann leicht grob irrtümliche Sachverhalte
vermitteln (Fehler 1. oder 2. Art) – ein probalistisches Verfahren
veranlaßt hingegen grundsätzlich eher frühzeitig zur Vorsichtigkeit,
weil es darauf ausgerichtet werden kann,
die zusätzlichen Verlässlichkeitsinformationen von physikalischen
Angaben mitzuberücksichtigen – somit ist es informativer.
Die konsequente Mitberücksichtigung von
Verlässlichkeitsangaben, welche besonders gut methodisch
in auf Wahrscheinlichkeiten orientierten Modellen umsetzbar ist,
hilft dabei, r e a l i s t i s c h Gefahren zu erkennen
und zu bewerten, gerade dadurch,
dass eine rein deterministisch entstandene Ja/Nein-Entscheidung
über eine Gefahrenexistenz entfällt, sondern Gefahrengrößen
mittels probalistischer Werte quantifizierbar gemacht
werden.
@ | Rudolf Uebbing | 21. August 2011, 19:04
So ein wirres Gebrabbel als Antwort auf deutlich gestellte Fragen,
die man einfach beantworten könnte, ist eine Zumutung und
ein Ärgernis.
Die beste Bezeichnung, die Ihnen bislang in diesem Blog
widerfahren ist, kann ich nur als angemessen empfinden,
nämlich Volltrottel.
Auf dem Gebiet von Wahrscheinlichkeitstheorie und Statistik
erachte ich Sie aufgrund Ihrer abstrusen Beiträge nicht nur als inkompetent,
sondern mehr noch, als unzurechnungsfähig.
Blindwütige Agitatoren, wie Sie einer sind, muss man entlarven,
um der ohnehin von Angstpsychosen geplagten Gesellschaft eine
Ansteckung durch das Roessler-Uebbing-Virus zu ersparen.
Schämen Sie sich!
Eine Abkürzung der Diskussion zur sog. Jaffe-Zahl scheint möglich –
wie ich mir bitte denke, wenn z.B.
ein Konsens möglich wäre oder auch unterschiedliche
Positionen einfach übrig blieben.
a) Das Zufälligkeitsprinzip stützt die
Angabe von JBSW („bounded“ „probability“).
Dies ist meine Meinung.
(Belegt bzw. unterstützt – unabhängig von JBSW – durch
Clopper-Pearson-Verfahren und durch 95%-Vertrauensbereich
bei der Poisson-Verteilung.
Unter der Annahme von p(1)=10^(-47) als JBSW-Wert
von der Formel (s3) bestätigt.)
b) Das Zufälligkeitsprinzip stützt nicht die
Angabe von JBSW („bounded“ „probability“).
Das ist die Meinung einiger, die ich bitte vermute.
c) Das Zufälligkeitsprinzip steht der
Angabe von JBSW („bounded“ „probability“) entgegen.
Das ist die Meinung einiger, die ich bitte nicht
vermuten möchte.
Ein Konsens ist ja hier auf dem Blog nicht notwendig –
verschiedene Meinung können konträr einfach stehen bleiben.
Als nächstes würde ich gerne den Fokus auf die vier
Fälle „cases I – IV“ von JBSW richten, danach weiter
auf das Thema risikomindernde Maßnahmen.
An haereticus – zu Ihrem Pkt. 2 (Formelangabe) aus Beitrag #114:
Warum soll hier die statistische Ableitung nochmal
wiederholt werden, die Experten (Clopper-Pearson) bereits vor
vielen Jahren als strenges, gebrauchsfähiges Verfahren entwickelt haben ?
Kurze Zusammenfassung von #125 | Rudolf Uebbing | 21. August 2011, 19:04
„blubb…ratsch…ratsch…QEDdiblubb…Heisenberg…ratsch…schwurbel…“
‚Uebbing‘ – AUFWACHEN!!!
Dass Sie von QFT keine Ahnung haben können, hatte ich in #70 schon begründet.
Also: Schwurbeldistopp!
Wahrlich schön ist in Antwort an stets sehr geehrten Herrn Kannenberg zu sehen, dass ‚Solkar‘ doch noch immer auch anders kann, als er es hier Herrn Uebbing gegenüber verlässlich zelebriert.
@sehr geehrter Herr Kannenberg:
machen Sie sich nichts draus! Sie belehren viel und und vielerorts und so schon seit einiger Zeit und Sie haben sich selbst auf der sicheren Seite positioniert: mit grösster Wahrscheinlichkeit wird am LHC schon kein Weltuntergang ausgelöst werden – unbelehrbar auf (Rest-)Risiken beharrende Besorgte bieten stets gute Gelegenheit zur Performance als Experte.
@galileo: Das paper: http://fias.uni-frankfurt.de/~hees/publ/cup.pdf , dass Sie betreffs ‚meiner Nabelschnur zu O.E.R‘ verlinkt haben habe ich gelesen und (selbstverständlich nur auf mir entsprechendem Laienniveau :)) verstanden und u.A. gefunden, dass noch vor 10 Jahren wissenschaftlich korrekt nur von Wahrscheinlichkeiten geschrieben worden ist, dass da keinerlei Katastrophe angestossen werden könnte, während CERN seit 2008 per Sprachregelung vorgibt, nurmehr von 0% Risiko zu reden und per G&M und LSAG versucht wird Gewissheit zu suggerieren, wo eben keine absolute Gewissheit ist.
@’haereticus‘: Genau diesen Missstand hat hier eben auch Herr Uebbing geduldig und trotz aller wahrlich böse intendierter Nachrede nachgewiesen.
Warum Sie, ‚haereticus‘, als ein eigentlich vernünftig erscheinender Mensch, hier nur stur darauf beharren Herr Uebbing solle durch das Lösen der von Ihnen gestellten ‚Hausaufgaben‘ zusätzlich beweisen, dass er Formalismen beherrsche, das entzieht sich meinem Verständnis.
UebbingTM,
ich kann mich nur noch einmal wiederholen: lassen sie die Finger von der ART und diesem ganzen Quantenzeugs. Sie sind damit hoffnungslos überfordert.
Ihre Vergewaltigung der Mathematik, Nullereignissen eine Verteilung unterlegen zu wollen, ist wirklich krass. Auf so eine Idee sind noch nicht einmal die Einstein-Hasser gekommen. Und von denen habe ich in den letzten Jahren viele gesehen. Ihre Phantasien dazu treten sie bitte ab sofort in den Müll. Ansonsten werde ich das für sie erledigen. Es ist vernünftig denkenden Menschen nicht zumutbar, immer wieder darauf hinweisen zu müssen, dass ihre derartigen Wahnvorstellungen falsch sind. Ende der Vorstellung.
galileo2609
@achtphasen
Schwachkopf! Sie sind genauso verblödet wie ihr Genosse aus Dortmund. Verkriechen sie sich wieder unter ihren Stein und warten sie dort auf ihren Meister Hora
galileo2609
#130 | achtphasen | 21. August 2011, 19:59
Ach, Sissy…
Du hast mal wieder gar nicht gerallt, was ich geschrieben hatte.
btw achtphasen,
es ist nicht besonders konsistent, wenn sie UebbingTM für das (bei ihm standardmässige) Nichtverlinken von Quellen rügen und mehr oder wenig gleichzeitig ein Unsinnszitat hier in den Blog pusten, ohne den Quellursprung zu kennzeichnen. Wie gesagt, gleiches Niveau wie der Dortmunder. Sie nehmen sich halt nichts, auch wenn sie sich gegenseitig die Augen aushacken.
galileo2609
Eine Anmerkung:
So sehr wie Worte sich auf Sachen beziehen mögen
(aus der Intention des Verfassers),
so intensiv ist manchmal auch ihre ungewollte Zweitbedeutung,
d.h. in der Kommunikationskette
– denken, sprechen/schreiben, Informationsübertragung (Akustik, digital, Funk, etc. etc.), hören/lesen, verstehen –
sind Fehlerquellen sondergleichen!
Zu lernen gilt hier vielleicht:
Getippte Worte haben zwei Bedeutungen:
a) eine mit sachlichem Inhalt
b) eine mit emotionalen Inhalt (ungewollt!)
Man möchte doch b) bitte ausschalten –
gibt es Vorschläge ?
@ Uebbing, #128
Ihr Text:
Ich hatte zu guter letzt keinerlei Ableitung eines Formalismus mehr verlangt,
weil ich gesehen habe, dass Sie dazu nicht in der Lage sind.
So wollte ich es Ihnen erleichtern, zu erkennen, wo Sie gelandet sind,
indem ich Sie aufforderte, Ihr eigenes Verständnis zur Binomialverteilung darzulegen.
Mein Text, #114:
Darauf haben Sie keine Antwort gegeben, was Ihre Hilflosigkeit wieder
einmal dokumentiert.
@ achtphasen, #130
Ihr Text:
Der Grund ist die naheliegende Vermutung, dass Herr Uebbing ein Hochstapler in
Sachen Wahrscheinlichkeitstheorie und Statistik ist, der sich aus der
Literatur seine wirren Aussagen zusammenstopselt, ohne den Inhalt
verstanden zu haben. Ich meine, er ist ein Dilettant auf diesem Sektor,
der sich jedem gutgemeinten Versuch, ihn zu belehren durch verschlagene
Manöver und ausuferndes Geschwafel entzieht, um der Allgemeinheit eine
Kompetenz zu suggerieren, die er nicht hat.
Das ärgert einem, vor allem, wenn man wiederholt versucht hat,
Herrn Uebbing auf diesem Sektor ein gewisses Verständnis der Formalismen
nahezubringen mit denen er andauernd Schindluder treibt!
Ich wehre mich als Bürger unserer Demokratie dagegen, dass von Seiten
völlig inkompetenter Minderheiten Forschung und Technologie behindert werden.
Jede Diskussion ist nur dann fruchtbar, wenn die Disputanten sachkundig
auf dem betroffenen Sektor sind und ehrlich miteinander umgehen.
Dilettanten, Hochstapler und Scharlatane haben bei grundlegenden
Entscheidungen m.E. nichts zu melden.
Ich hoffe doch, dass Sie verstanden haben, um was es mir geht.
@’haereticus‘:
ja, es ist klar verständlich geworden, dass Sie Herrn Uebbing für einen Hochstapler halten.
—————
betreffs:
@galileo:
genau solch Gepolter wegen nicht referenzierter Quelle des „Unsinnzitat“ wollte ich gestern abend noch provozieren.
hier der Link: http://www.physicsforums.com/showpost.php?s=693c7792c9ce221651b099e1188eb2f1&p=143964&postcount=3
und hier nochmals das Zitat:
An Haereticus:
Mein persönlicher Stil ist es nicht mit persönlichen gemeinten
Missverständnissen Ihnen zu antworten –
vielmehr vermute ich, dass Sie den Sinn
des Rechenverfahrens gem. Clopper-Pearson für
Exakte Vertrauensintervalle für relative Häufigkeiten und
auch für unbekannte Wahrscheinlichkeiten
im Binominalmodell nicht verstanden haben.
Das Ergebnis der Anwendung steht in Übereinstimmung
mit der Zahlenangaben von Jaffe, Busza, Sandweiss und
Wilczek – als wissenschaftlich interessierter Mensch
kann man sich genau hierüber freuen.
achtphasen,
sie wollen jetzt nicht wirklich ihre Inkompetenz mit Dixon-Zitaten zelebrieren?
galileo2609
@ achtpasen, #137
Was Sie angeblich verstanden haben, ist aber sehr dürftig!
@ haereticus,
jetzt haben sie und wir es schwarz auf weiss. Wir sind die total Verblödeten. Ich bin dafür, wir hängen angesichts dieser massiven Offensive der Maschinenstürmer die weisse Fahne aus den Fenstern unserer zerbombten Festungen.
Grüsse galileo2609
An Haereticus:
Sie haben offenbar überlesen, dass
a) ich die alternative Beurteilungsmöglichkeit mittels
der MLE / MLS- Methodik nicht für richtig halte,
weil sie
b) ein nicht so konservatives Ergebnis wie
Clopper-Pearson liefert,
und
c) wegen des anzuhaltenden Prinzip der
worst-case-Annahme das strengere Verfahren
(Clopper-Pearson) hier anzuwenden ist.
Dies steht im Übereinklang mit dem Ergebnis der
Physiker Jaffe, Busza, Sandweiss und Wilczek,
als sie einen Wert zu einer bestimmten „bounded“
„probability“ publizierten.
UebbingTM,
sie Vollidiot. Zeichnen sie sich endlich mal eine Verteilung der Vakuuminstabilitäten aus den Stichproben der 1047 CR-Kollisionen im Vergangenheitslichtkegel und der 2 * 1011 Kollisionen im RHIC auf.
Danach berechnen sie für beide Stichproben Mittelwert, Standardabweichung und Varianz. Und solange das nicht geht, werde ich alle ihre weiteren Schwachsinnskommentare einfach in den Giftschrank sperren.
galileo2609
#142 | Rudolf Uebbing | 21. August 2011, 21:39
‚Uebbing‘,
hatten Sie auf der Baumschule eigentlich Häkeln statt Englisch und Stricken statt Mathe?
Wie oft muss man Ihnen eigentlich diese Fomulierung
aus [BJSW]
vorlesen und erklären was das bedeutet, bevor Sie’s endlich rallen?
[BJSW] W. Busza, R. L. Jaffe, J. Sandweiss, and Frank Wilczek. Review of speculative ’disaster scenarios’ at RHIC. Rev. Mod. Phys., 72:1125–1140, 2000.
An Galileo2609:
Richtig ist, dass die Statistik in den letzten Jahren und Jahrzehnten
Fortschritte gemacht hat – auch gegenüber dem Rechenverfahren von C. Clopper und E. Pearson von 1934 – und zusätzlich zu herkömmlich bekannten Attributen zu Verteilungen neue Merkmale definiert hat, welche keineswegs in allen aktuellen Lehrbüchern abgehandelt werden.
Interessanter Nachweis, wie die Mathematik weiter vergewaltigt werden soll. Rest gelöscht.
Unfug gelöscht.
Nachricht an UebbingTM: Machen sie ihre Hausaufgaben, sonst geht hier nichts weiter.
Betreff:
Nachweis zur Richtigkeit meiner statistischen Interpretation
zur Untermauerung der sog. „Jaff-Zahl“
Hier vier klarstellende Aussagen zum statistischen Gehalt der
sog. Jaffe-Zahl:
a) Der Maximum-Likelihood-Schätzer führt als
Erwartungswert 0 für die Stichproben-Interpretation zur
JBSW-Aussage.
Im Sinne des Prinzips des worst-case-Annahme ist
ein Erwartungswert 0 zu optimistisch und kann aus Sicherheitsgründen daher nicht akzeptiert werden.
Wegen physikalischen
unvollständigen Wissens verwerfen auch Jaffe, Busza,
Sandweiss und Wilczek den Erwartungswert 0
und geben stattdessen eine nach oben
begrenzte Wahrscheinlichkeit ungleich Null
konkret beziffert an (für einen RHIC-bedingten
Vakuumswechsel).
b) Die Interpretation als Poisson-Verteilung führt
auf Erwartungswerte wie 1 oder 0,333 für Lambda
als Mittelwert der Poisson-Verteilung, d.h.
der Erwartungswert ist in Übereinstimmung mit
der Jaffe-Zahl u n g l e i c h Null, sh. p 530/584 des
Dokumentes von R. Frühwirth (Quelle sh. b. u.).
c)
Auch im Falle des Binominalmodells
sind Erwartungswerte mit u n g l e i c h Null konkret
zu beziffern, wird k e i n e einzige kritische
Ziehung beobachtet. (sh. p 516/584)
d)
Die Unterschiede, die sich aus a-priori und
die a-posteriori-Wahrscheinlichkeiten
ergeben, schmälern den Wert der Aussage nicht, nämlich
dass Zufallsprinzipien im Sinne der Nullhypothese
die Jaffe-Zahl untermauern.
Es stellt sich heraus,
dass die Clopper-Pearson Sicherheitswahrscheinlichkeit
geringfügig zu konservativ ist (sh. 516- 517/584).
Quelle:
http://www.hephy.at/fileadmin/user_upload/Fachbereiche/ASE/Handout_Teil7-8.pdf
@ Uebbing
Anstatt weiter herumzuschwafeln und um den heissen Brei
herumzuschleichen, sollten Sie einen Wert für die Ereignisrate µ
des Poisson-Prozesses angeben, damit wir als erstes in dieser
Sache weiter kommen.
Auch Ihre Hausaufgabe zur Binomialverteilung steht noch aus.
Glauben Sie denn, ich habe Lust, mit Ihnen weiter zu diskutieren,
wenn Sie sich permanent weigern, klare Fragen direkt zu beantworten.
Ich werde auch den Teufel tun und Ihren stümperhaften Ausflügen
in Ihren Bücherverhau nachspüren. Da könnte ich wohl genau so gut
in die Rolle des Don Quichote hineinschlüpfen.
Meine Vermutung, dass Sie weder die Poisson-Verteilung, noch die
Binomialverteilung in ihrer Bedeutung für das vorliegende Problem
verstanden haben, sehe ich bislang nur bestätigt.
Da hilft es Ihnen auch nichts, wenn Sie den Spies umzudrehen versuchen,
wie z.B. in Ihrem Beitrag #138. Dilettant, Sie sind durchschaut.
Merke: Nichts mehr geht, ohne dass vorher die Hausaufgaben gelöst werden!