Atom Fast 8850 / 8816 / 77100

Begonnen von Fusor, 12. Februar 2021, 14:57

⏪ vorheriges - nächstes ⏩

DG0MG

Heisst der Alex nicht Maxim?

Zitat von: emanator am 05. Mai 2021, 12:37
- Sehr komisch: Wenn man im Search-Modus Reset the Dose anklickt und dann auf den Measure-Modus wechselt, sieht man wie die DL auf 0 fällt und komplett neu berechnet wird ? Was soll das denn heissen? Was hat die Dosis (z.B. ein Tag) denn für einen Einfluss auf die Momentanmessung. Wieso startet die dann neu?

Auf dieses Problem sind Henri und ich beim Spielen mit dem Atom Poor auch gestoßen. Ich weiß jetzt nicht, warum das so gelöst wurde, aber der Measure-Mode nimmt beim drücken auf START die aktuell aufgelaufene Dosis(!), merkt die sich und rechnet dann mit der seit START vergangenen Zeit und der inzwischen höheren Dosis die Differenz aus und aus der die Dosisleistung. Wenn man nun während Measure die Dosis nullstellt, wird die Differenz negativ - das ist wahrscheinlich abgefangen und dann wird 0 angenommen. Es gibt noch mehr Hin- und Herrechnerei, einfach mal den Atom-Poor-Thread lesen.
"Bling!": Irgendjemand Egales hat irgendetwas Egales getan! Schnell hingucken!

miles_teg

Zitat von: emanator am 05. Mai 2021, 12:37
Auch wenn man sich die Karten anderer User in der App-Cloud anschaut... das sind oft Werte die können nicht sein, sorry.
Unklar wie man bei schnell verfügbaren ausreichenden cps werten so einen Unsinn errechnen kann. Anscheinen gar kein Algorithmus um zu glätten.
Kannst Du das mal näher ausführen? Was sind Werte "die nicht sein können"? Zu hoch?

emanator

Ja da kann man verschiedener Meinung sein.

Zunächst mal ist natürlich klar, das man hier zu päpstlich sein dar...

Mir sind die Werte (im Track) viel zu gering. Im Measurement Modus in der App komischerweise nicht.
Ob die Werte auch zu Hoch sind, muss ich mit einer venüftigen Quelle mal messen.

Selbst bei professionellen Geräten übersehen halt viele, das der Anzeigebereich nicht gleich dem Messbereich ist.
Will heissen, man bekommt zwar einen Messwert angezeigt, aber die Messwertberechnung (Standartabweichung, Anzahl Impulse, Zeitkonstanten usw.) ist halt erst ab einem bestimmten Wert wirklich valide (z.B. mal automess 6150AD6: Anzeigebereich 0,1 µSv/h - 10 mSv/h, Messbereich 0,5 µSv/h - 9,99 mSv/h). Also ist auch hier eine Anzeige von 0,09 oder 0,12 oder 0,2 eigentlich egal... obwohl man beim automess im Modus Mittelwertmessung durchaus einen validen Wert erhalten kann!

Automess erklärt aber auch sehr schön wo das Problem ist: Es braucht in der Statistik einfach eine gewisse Mindestanzahl an Ereignissen (Impulsen) in einer konstanten Zeiteinheit um statistisch einigermassen vernünftige Mittelwerte zur errechnen. Da aber ja Geräte schnell und gleich anzeigen sollen (und der Detektor ja auch nicht so gross sein darf) ist das bei allen Herstellern vom Rechenalgorithmus her ja die grosse Kunst. Und auch hier sieht man bei den Geräten halt mal "Lücken" wo (aufgrund welches Parameters auch immer, meist eine steigende Standartabweichung oder ausbleibende Impulse) der Messwert plötzlich (aber kurz) recht hoch oder niedrig erscheint.... da zeigt auch ein automess mal 0,03 oder 0,00 oder 0,22 an, wo real z.B. 0,1 ist.

Generell gilt also: je mehr Impulse pro Zeiteinheit um so besser ist ein realer Mittelwert zu errechnen und um so schneller kann man diesen bei Schwankungen der realen Grösse aktualisieren.

Das ist ja ein grosser Vorteil bei Szintilationsdetektoren. Sie produzieren selbst bei kleinem Volumen viele Impulse (noch dazu ohne grosse Totzeiten). Esrt bei zu vielen Impulsen wird der Vorteil dann zum Problem (z.B. hat der Identifinder von FLIR oder der HDS-101 G von Mirion für hohe DL noch ein anderen Detektor).

Beim Atom-Fast mit dem relativ grossen Kristall (jedenfalls deutlich grösser als zb der Radiacode) sollte es also immer ein relativ realistischer Wert da sein.
Auch da könnte es mal 1 Sekunde ein zu hohen oder niedrigen Wert geben, aber in Summe halt nicht.

Jetzt schaut man auf die Karten in der App...  oder macht selbst einen:

0,03 µSv/h über 5 oder 10 Sekunden ???? Das kann nicht sein.
Autobahnstrecken über 10 Minuten mit 0,05 µSv/h ?
Im Wald stehend über 5 Minuten 0,03 µSv/h.

Man kann leicht die ODL im IMIS nachschauen oder aber selbst mit anderem Gerät messen.
Sicher schwankt die zwischen (mal so gesprochen) 0,06µSv/h an der Nordsee und 0,19 im Erzgebirge oder im Schwarzwald.
Sicher gibt es immer geogene Einflüsse oder Baustoffe.
Sicher gibt es mal Niederschläge und wechselnde Radonbelastungen.
Sicher ist im Auto der Anteil kosmischer Gammas geringer.

Aber in der Nähe von Berlin, in Erlangen oder den anderen Orten in der App ist es leider nie 0,03 oder 0,05 .... das ist einfach Murks.
Hier stimmt irgendwas bei der Berechnung nicht (Impulse sind garantiert genug da).

In Videos zum Raysid sieht das (auf Videos) schon viel realistischer aus.
Beim Radiacode bleibt es ab zu warten (der Track auf einem Bild im Internet sah aber auch nicht so schlimm aus)



miles_teg

Zitat von: emanator am 05. Mai 2021, 14:33
0,03 µSv/h über 5 oder 10 Sekunden ???? Das kann nicht sein.
Autobahnstrecken über 10 Minuten mit 0,05 µSv/h ?
Im Wald stehend über 5 Minuten 0,03 µSv/h.
Bei den tracks vermute ich das ein Teil der Problematik mit der kolportierten 2 sec Verzögerung via Bluetooth und zum anderen mit der GPS Datenerfassung zu tun haben könnte. Ich jedenfalls sehe in SEARCH ständige Schwankungen im Hintergrundbereich. Wenn ich mit dem Auto oder Fahrrad unterwegs bin, ziehen sich die Datenpunkte aufgrund der Geschwindigkeit weiter auseinander. Vielleicht erzeugt dies eine größere Gleichförmigkeit der Daten weil einfach mehr gemittelt wird? Ich jedenfalls bin der Meinung größerer Schwankungen der Werte beim Laufen als beim Rad/Autofahren zu sehen.

Henri

Hallo,

was die "zu geringen" Dosisleistungen betrifft: die sind tatsächlich manchmal einfach so niedrig!

Ich habe einen kleinen Szinti, der vom Kristallvolumen her etwa dem Atom Fast entspricht (ca. 20 cps bei 100 nSv/h) und habe den zusammen mit einem GPS-Modul, Arduino und SD-Karte in einer kleinen Box öfters beim Spazierengehen dabei. Damit ich eine hohe Ortsauflösung bekomme, aber gleichzeitig die Schwankungen nicht zu groß werden, bilde ich einen gleitenden Mittelwert über drei 1-Sekunden-Messintervalle. Jede Sekunde wird ein Wert auf der SD-Karte gespeichert. Um  mit einer 2-Sigma Standardabweichung auf eine Genauigkeit von +/- 10% zu kommen, müsste ich 100 Impulse zählen, habe in der Regel aber nicht mal die Hälfte. Also müssten die Messwerte eigentlich ziemlich springen.

Trotzdem sehe ich sehr gut, wenn ich über eine Strasse laufe, wie sofort die DL hoch geht, und wenn ich drüben bin, wieder runter.
Wenn ich vom Spazierengehen zurückkomme, werte ich das Ganze mit QGIS aus. Ich setze die Farbskala meiner Messpunkte über 20 verschiedene Werte, das mittelt die kleinen Schwankungen durch zu wenig Impulse eigentlich vollständig aus. Ich habe keinen einzigen "Ausreißer" auf der Strecke über die Strasse. Insgesamt ist ein großer Teil der Werte tatsächlich auch mal 0,3-0,5µSv/h. Aber auf der Karte betrachtet ist das dann immer ein ganzer Streckenabschnitt. Das ist also schon plausibel. Oft z.B. bei Brücken, oder an Teichen, in Mooren, an Kanälen und Flüssen, generell da, wo der Untergrund viel Wasser enthält.

Es ist halt so, dass die ODL immer nur ein Durchschnittswert ist, und der hängt extrem vom Untergrund, von benachbarten Gebäuden, und auch von der Witterung ab. Fahr mal mit einem Boot auf einen tieferen See hinaus. Dann misst Du fast nur noch kosmische Strahlung.

Bei Geigerzählern merkt man das nicht, weil die so langsam sind, dass über mehrere Minuten (eigentlich Stunden) gemessen werden muss, um überhaupt irgendwie plausible Werte zu bekommen. Die teilweise doch sehr hohen lokalen Schwankungen werden dadurch  einfach rausgeglättet, wenn der Detektor nicht ortsfest ist.  Wobei es wieder darauf ankommt, wie der Hersteller die Messdaten aufbereitet. Denn der Automess z.B. "spekuliert" ja anhand dessen, was er sieht, auf die korrekte ODL. Er misst nicht ewig und rechnet dann, sondern versucht eine plausible Vorabschätzung. Es gibt auch Geräte, die gar keine Impulse mehr messen, sondern nur die Zeitdauer zwischen den Impulsen, und kommen dadurch auch wesentlich schneller auf Werte, die größenordnungsmäßig ziemlich gut passen. Beim Szinti ist das nicht so extrem, der spricht "sofort" an, ohne dass man unbedingt Algorithmen braucht, die clever "in die Glaskugel schauen".

Wenn ich 3 Stunden unterwegs war, habe ich in der Regel alles zwischen 30 und 300 nSv/h in mehr oder weniger kurzen Aschnitten mal dabei gehabt. Und es passt auf der Karte immer sehr gut zu sich ändernden Untergründen. Besonders auffällige Stellen kontrolliere ich auch noch mal mit einem Satellitenlayer.



Noch eine Anmerkung zur fehlenden Spektroskopiemöglichkeit beim Atom Fast: dafür braucht man in der Hardware eine Sample-Hold Schaltung. Es reicht nicht, das einfach nur in Firmware zu programmieren, weil die AD-Wandler in den üblichen Mikrocontrollern einfach viel zu langsam sind für eine Peak-Erkennung. Deshalb ja auch die schnellen Soundkarten für Theremino; vielleicht wird im RaysID ja auch ein Sound-Chip als billiger AD-Wandler Ersatz verwendet?

Viele Grüße,

Henri


PS: nachdem ich gerade den Thread zum RadiaCode https://www.geigerzaehlerforum.de/index.php/topic,647.0.html  gelesen habe, möchte ich noch hinzufügen, dass mein Szintillator natürlich nicht energiekompensiert ist und deshalb auch keine präzisen Dosisleistungen anzeigt. Der Atom Fast dürfte ja auch nicht energiekompensiert sein, also ist das auch noch ein Faktor, den man beachten muss. Aber das sind z.B. die SafeCast (https://safecast.org/) Geräte aus Japan ja auch nicht, und waren trotzdem ein sehr wichtiges Hilfsmittel, um behördenunabhängig ein schnelles Bild von der Lage zu bekommen. Genau wie man mit dem AtomFast schnell Hotspots findet. Für deren genaue Ausmessung braucht man dann halt Profigerät, wenn man es so genau wissen möchte.


Na-22


emanator

Zitat von: Henri am 05. Mai 2021, 18:51
Hallo,

was die "zu geringen" Dosisleistungen betrifft: die sind tatsächlich manchmal einfach so niedrig!

...

Es ist halt so, dass die ODL immer nur ein Durchschnittswert ist, und der hängt extrem vom Untergrund, von benachbarten Gebäuden, und auch von der Witterung ab. Fahr mal mit einem Boot auf einen tieferen See hinaus. Dann misst Du fast nur noch kosmische Strahlung.

Bei Geigerzählern merkt man das nicht, weil die so langsam sind, dass über mehrere Minuten (eigentlich Stunden) gemessen werden muss, um überhaupt irgendwie plausible Werte zu bekommen. Die teilweise doch sehr hohen lokalen Schwankungen werden dadurch  einfach rausgeglättet, wenn der Detektor nicht ortsfest ist.  Wobei es wieder darauf ankommt, wie der Hersteller die Messdaten aufbereitet. Denn der Automess z.B. "spekuliert" ja anhand dessen, was er sieht, auf die korrekte ODL. Er misst nicht ewig und rechnet dann, sondern versucht eine plausible Vorabschätzung. Es gibt auch Geräte, die gar keine Impulse mehr messen, sondern nur die Zeitdauer zwischen den Impulsen, und kommen dadurch auch wesentlich schneller auf Werte, die größenordnungsmäßig ziemlich gut passen. Beim Szinti ist das nicht so extrem, der spricht "sofort" an, ohne dass man unbedingt Algorithmen braucht, die clever "in die Glaskugel schauen".

Wenn ich 3 Stunden unterwegs war, habe ich in der Regel alles zwischen 30 und 300 nSv/h in mehr oder weniger kurzen Aschnitten mal dabei gehabt. Und es passt auf der Karte immer sehr gut zu sich ändernden Untergründen. Besonders auffällige Stellen kontrolliere ich auch noch mal mit einem Satellitenlayer.

...


Ja Henri da bin ich schon bei Dir wenn Du von momentanen Werten sprichst...

Aber sorry beim Automess Algorithmus werden keine "prognostizierten" Werte angezeigt. Die beschreiben recht schön wie Sie rechnen und es sind sehr fundierte Berechnungen, die allein auf realen Vergangenheitswerten beruhen und sehr gut mit Mittelwerten, Standabweichungen und Zeitfunktionen verrechnet werden.

Wenn die Anzeige an einer IMIS ODL-Sonde direkt 0,9 µSv/h ist, ist das ein realer Wert. Da gibt es evtl. eine Sekunde wo es weniger Impulse sind, aber das ist nicht der reale Messwert. Mann muss dan einfach mehr Impulse mitteln. Daher wundert mich ja gerade das der Atom-Fast hier offensichtlich zu niedrige Werte anzeigt (und zwar auch über 5/10/20/40 Sekunden... das sind vile Sigmas) obwohl genug Impulse zum Verrechnen zur Verfügung stehen.... hier stimmt etwas nicht. Zu simpel geglättet oder falsche Energiekalibrierung ????

Wenn ich an gleicher Stelle ein 6150AD6 im Mittelwertmodus betreibe wird wenn die Anzeige dann stabil ist (hört auf zu blinken) eine ausreichende Anzahl von Impulsen ausgewertet (deshalb dauert das auch schon mal einige Minuten, bei der AD-b Sonde aber fast sofort)bis eine definierte Standartabweichung erreicht wird... und siehe da es zeigt sich nahezu der gleiche Wert!

Wenn Deine Aussage stimmt könnte ich ja das 6150 mit AD-b auf einem See einschalten und bekomme dann auch 0,3 µSv/h angezeigt... das ist aber nicht so.


Henri

Zitat von: emanator am 05. Mai 2021, 20:11


Ja Henri da bin ich schon bei Dir wenn Du von momentanen Werten sprichst...

Aber sorry beim Automess Algorithmus werden keine "prognostizierten" Werte angezeigt. Die beschreiben recht schön wie Sie rechnen und es sind sehr fundierte Berechnungen, die allein auf realen Vergangenheitswerten beruhen und sehr gut mit Mittelwerten, Standabweichungen und Zeitfunktionen verrechnet werden.

Klar sind es fundierte Berechnungen. Ist ja auch ein eichfähiges Gerät. Aber es ist nicht so, dass 400 Impulse abgewartet werden, bis die Standardabweichung klein genug ist, und dann wird das Ergebnis ausgeworfen. Sondern es wird anhand bestimmter Annahmen ein Ergebnis vorhergesagt und dann mit den Messwerten, die noch eintrudeln, diese Modellierung angeglichen. Das funktioniert sehr gut, aber es ist was anderes.

Zitat von: emanator am 05. Mai 2021, 20:11
Wenn die Anzeige an einer IMIS ODL-Sonde direkt 0,9 µSv/h ist, ist das ein realer Wert. Da gibt es evtl. eine Sekunde wo es weniger Impulse sind, aber das ist nicht der reale Messwert. Mann muss dan einfach mehr Impulse mitteln.

Die Sonde bewegt sich aber nicht, sie steht fest. Und zwar auf einer repräsentativ ausgesuchten Wiese, ohne Bebauung in größerem Umkreis.


Zitat von: emanator am 05. Mai 2021, 20:11
Wenn Deine Aussage stimmt könnte ich ja das 6150 mit AD-b auf einem See einschalten und bekomme dann auch 0,3 µSv/h angezeigt... das ist aber nicht so.

Hast Du's mal gemacht?


Die Strahlung um uns herum kommt ja einmal aus dem Weltall (nur von der Höhe und ggf. dem Breitengrad bzw. Deformationen des Erdmagnetfelds abhängig), und dann von den Uran- und Thorium-Zerfallsreihen und vom K-40. Wenn man nun einen Untergrund hat, der wenig Kalium hat und wenig Uran und Thorium, dann bleibt halt nicht mehr viel übrig, was überhaupt noch strahlen könnte. Auf einem See ist das nur die minimale Menge gelöster U-/Th-/K-Salze, der die hohe Absorptionsfähigkeit des Wassers entgegensteht. Wenn Du auf einer Brücke über einem breiteren Fluss stehst, sind es nur Verunreinigungen im Stahl und evtl. minimale Ablagerungen von Radon-Zerfallsprodukten. Ist ein Boden mit Wasser gesättigt, wird auch mehr absorbiert. Erdölfelder findet man durch ein Absinken der Ortsdosisleistung (https://ludlums.com/images/data_sheets/Geo%20Explorer%20Article.pdf).

Viele Grüße!

Henri

Henri

Ich habe heute noch mal eine alte Studie aus den 80ern bemüht, in der die Nordseeinseln umfassend ausgemessen wurden. Dort wurden in den Dünen (fast nur Quarzsand) Ortsdosisleistungen von ca. 15 mrem/a (ca. 17 nSv/h), und direkt an der Wasserkante ca. 12 mrem/a (ca. 14 nSv/h) gemessen. An der Wasserkante war es weniger durch die Absorption des Wassers.

Sandige Böden dürften also auch ein Kandidat für sehr niedrige Ortsdosisleistungen sein, je nachdem welcher Stein da zerrieben wurde. In Norddeutschland hat man teilweise ja nur Humusschichten von wenigen dm, und darunter beginnt schon der Sand.

Viele Grüße!

Henri

miles_teg

Hier mal ein Röntgenblick in den ATOM Fast 8850. ;-)

Madmax

Hallo zusammen, Freunde! Vor kurzem habe ich im Forum von der Existenz dieses Themas erfahren. Mein Name ist Maxim und ich bin der Entwickler des Atom Fast-Geräts und aller anderen Atom-Geräte. Ihre Fragen können Sie mir hier oder in privaten Nachrichten stellen. Leider spreche ich kein Deutsch und dieser Beitrag wurde mit Google Translate verfasst. Ich spreche fließend Englisch, meine Muttersprache ist Russisch. Google Translate hilft mir, dieses Forum gut genug zu lesen, aber es gibt einige technische Ungenauigkeiten. Bei Interesse kann ich Ihnen auch über das Atom-Projekt und unsere anderen Entwicklungen berichten.
Vielen Dank für Ihre Aufmerksamkeit!

DG6NFG

Hallo!

Wird es denn beim AtomFast noch irgend eine Weiterentwicklung geben?

Madmax

Hallo! Was meinst du mit Entwicklung? Das Gerät ist entworfen, die damit arbeitende Anwendung ist einfach und zuverlässig. Was möchten Sie gerne?

DG6NFG

Zum Beispiel das Problem in der Android App die Doserate nicht richtig angezeigt wird, wenn das Handydisplay ein ungewöhnliches Seitenformat hat ...

Dann wäre es interessant zu wissen ob es irgend eine Möglichkeit gibt den - ja recht großen - Szintillator auch zur Aufzeichnung von Spektren zu nutzen.

Null-Messungen

#134
Hallo

Nach mehreren Monaten Abstinenz möchte ich mich mal mit einer Frage zur den Einstellmöglichkeiten des Atom Fast 8850 an das Forum wenden.
Vielleicht kann mir ja jemand weiterhelfen ?!

Ich habe mir im April letzten Jahres, nachdem ich mit den Meß-Optionen des Obsidians nicht zufrieden und von den Meßergebnissen nicht überzeugt war, einen Atom Fast 8850 bei einem Händler in Großbritannien bestellt.

Inzwischen habe ich, nachdem ich es versäumt habe das Gerät gleich von Anfang an auf Herz und Nieren zu prüfen, festgestellt, dass die von diesem Gerät ausgeworfen Meßergebnisse auch nicht stimmen können.

So zeigt mir der Atom Fast Meßergebnisse bei der Dosisleistungsmessung an, die um etwa 40% zu niedrig sind.
Hierbei habe ich die Meßwerte des Atom Fast mit denen eines Gamma Scout (1. Generation) und denen eines ALPHAiX 3000 mit der Meßsonde vom Typ G, beide Geräte mit Endfensterzählrohren, verglichen.

Um Einwänden bezüglich unterschiedlicher Strahlungsarten und Endfensterzählrohren zuvorzukommen:
Bei diesen Vergleichsmessungen wurden die Endfensterzählrohre bei beiden Geräten durch die Verschlüsse für Alpha- und Betastrahlung abgeschirmt, bei allen Meßgeräten wurden die Längsseite des Zählrohrs/Kristalls zur Messung verwendet (Strahlungsfeld quer zur Längsachse) und um ganz auf Nummer Sicher zu gehen wurde bei allen Messungen die Betastrahlung durch eine zusätzliche 6 mm starke Alu-Platte zwischen Strahlenquelle und Meßgerät weitestgehend abgeschirmt.

Diese beiden Endfenstermeßgeräte liefern etwa gleiche große Ergebnisse für die Dosisleistung, während der Atom Fast 8850 etwa einen halb so hohen Wert auswirft.

Daraufhin habe ich 'mal ein bißchen in diesem Thread nachgeforscht und eine Aussage zur Empfindlichkeit des Atom Fast 8850 gefunden.

DG0MG (Administrator) stellte am 13. Februar 2021 um 10:59 Uhr (Beitrag #2) eine Vergleichs-Tabelle zu den Empfindlichkeiten verschiedener Meßgeräte mit Angaben in Imp/µR ein.
Für den AF 8850 hieß es in dieser Tabelle, daß die Empfindlichkeit bei 4.700 Imp/µR (d.h. 470.000 Imp/µSv) liegen würde.

Bei meinem AF 8850 ist aber bei allen Messungen, die ich mit diesem durchgeführt habe, dieser Wert bei etwa 665.000  Imp/µSv (d.h. 6.650 Imp/µR).

Vorausgesetzt dieser Wert in Höhe von 4.700 Imp/µR wäre korrekt, so würde es im Umkehrschluß heißen, dass die gemessene Dosisleistung bei mir um etwa 29% bezogen auf den tatsächlichen Wert bzw. 41% bezogen auf den gemessenen Wert zu niedrig sein würde.

An der Kalibrierung auf Cs-137 kann es ja wohl auch nicht liegen, dass die Messungen der Geiger-Müller-Zähler von der des AF soweit abweichen, da zumindest der GS und der AF auf dieses kalibriert sein sollten und dann auch dieselben Abweichungen haben müßten.
Für den ALPHAiX 3000 kann ich dieses leider nicht sagen, da in der Bedienungsanleitung für das Zählrohr Typ G nur steht, dass man die Nullrate im Basisgerät für dieses Zählrohr auf 30 cpm einstellen solle.
Anmerkung: Die Vergleichsmessungen wurden alle an demselben Stück Monazit (Thorium 232 und dessen Zerfallsprodukten) durchgeführt. Der Kalibrierungsfaktor von 665.000 Imp/µSv ergibt sich bei meinem AF 8850 aber auch für die Background-Messung.

Frage: Ist mein Gerät defekt oder kann man es irgendwie kalibrieren, sodass die Dosisleistungsmessungen zumindest annähernd korrekte Werte liefert ?
Ich habe eine derartige Einstellmöglichkeit (zur Kalibrierung) nicht gefunden.

Mit freundlichen Grüßen
Alexander


PS: Ich habe gerade eine Vergleichsmessung mit dem AF 8850 auch noch 'mal an einem U-Mineral durchgeführt:  ->  Wieder 665.000 Imp/µSv !!!
Damit dürfte erwiesen sein, dass die Energie der Gamma-Photonen für die DL-Messung keine Rolle spielt und dass die DL in jedem Fall stumpf durch Division der cph durch diese 665.000 Imp/µSv (bzw. cps durch 184,72) erfolgt.
Ähnliche Probleme hatte anscheinend schon ein anderes Mitglied des Forums (DG6NFG: siehe Beiträge #68, #71, #76 und #81) gehabt.
Die Frage ist jetzt nur noch warum dieser Wert des Kalibrierungsfaktors so weit von dem in der Tabelle aus dem Beitrag #2 (Autor: DG0MG) abweicht und wie man die Diskrepanz der Meßwerte für die DL zu denen der GM-Meßgeräten erklären und/oder ggf. korrigieren kann.