We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Ich brauche die Röntgenlichtkurve von Classical Nova V1494 Aquilae (1999 Nr. 2) in Outburst. Es ist schon lange her, aber ich muss das alleine machen. Beim Lesen des Papiers über die V1494 Aquilae haben sie die Daten zu drei verschiedenen Zeitintervallen analysiert und dann die drei Grafiken kombiniert, um eine endgültige Lichtkurve zu erhalten. Der letzte zeigt einen klaren Pick, der dem Ausbruch entspricht.
UR: Datenanalyse zur EMRI-Detektion in LISA
In der Reihe Undergraduate Research stellen wir die Forschung vor, die du bist tun. Wenn Sie ein Student sind, der an einem REU- oder ähnlichen Astroforschungsprojekt teilgenommen hat und dies auf Astrobites teilen möchten, besuchen Sie bitte unsere Einreichungsseite für weitere Details. Wir würden uns auch über Ihre allgemeinere Forschungserfahrung freuen!
Ava Stockman
Dieser Gastbeitrag wurde geschrieben von Ava Stockman, Studentin am Bellevue College. Ava hat diese Forschung im Sommer mit Dr. Joey Key in der Gravitational Wave Astronomy-Gruppe von UW Bothell im Rahmen einer REU durchgeführt. Sie wird 2023 ihren Abschluss machen und hofft, in Zukunft auf der Hardwareseite von LISA zu arbeiten.
Gravitationswellen sind Wellen im Raumzeitgefüge, die durch die Beschleunigung sehr großer Massen (zum Beispiel die Verschmelzung zweier Schwarzer Löcher) erzeugt werden. Die von der Europäischen Weltraumorganisation und der NASA finanzierte Laser Interferometer Space Antenna (LISA) zielt darauf ab, beim Start in den 2030er Jahren neue Gravitationswellenquellen zu entdecken und so die Tür für neue Entdeckungen in der Gravitationswellenastronomie zu öffnen. LISA kann Gravitationswellen in einem breiten Frequenzbereich erkennen, was eine Herausforderung bei der Datenanalyse darstellt, da viele Gravitationswellensignale deutlich unter dem Detektorrauschen liegen. Die erste LISA Data Challenge (LDC) simuliert LISA-Daten durch Einspeisung von Gravitationswellensignalen in ein idealisiertes Instrumentenrauschmodell. Das Ziel der Challenge ist es, die Gravitationswelleninformationen abzurufen.
Das LDC für Extreme Mass Ratio Inspirals (EMRIs) enthält ein einzelnes simuliertes EMRI-Signal, das in das Instrumentenrauschen injiziert wird. Die Umlaufbahn eines EMRI ist sehr exzentrisch und komplex und dauert Jahre vor der Verschmelzung, was zu einer komplizierten Wellenform führt. EMRI-Gravitationswellensignale sind um mehrere Größenordnungen niedriger als das Detektorrauschen und viele andere von LISA detektierte Gravitationswellenquellen, was Fortschritte bei den Datenanalysestrategien für eine erfolgreiche EMRI-Detektion unerlässlich macht. Unter Verwendung des Mock-LDC-Mastercodes wurden die verrauschten und rauschfreien EMRI-Daten erfolgreich manipuliert und aufgezeichnet, wir berechneten das Signal-Rausch-Verhältnis und konnten das Signal wiederherstellen. Wir arbeiten derzeit an einer Methode, um simulierte EMRI-Signale mit einer Reihe von Parametern mit der LDC-EMRI-Injektion zu vergleichen. Dieses Projekt sowie zukünftige LISA-Datenherausforderungen werden es uns ermöglichen, unsere Techniken zur Filterung verrauschter Daten weiterzuentwickeln, sodass das EMRI-Signal aus dem ursprünglich von LISA erfassten Rohsignal extrahiert werden kann.
Diagramme, die veranschaulichen, wie das EMRI-Signal (orange) im Detektorrauschen (blau) durch die Zeitverzögerungsinterferometrie (TDI)-Diagramme vergraben ist. Auf der linken Seite wird jedes Signal separat mit unterschiedlichen Skalen aufgetragen, wie rot markiert und auf der rechten Seite werden sie in derselben Grafik aufgetragen. Wie Sie sehen, ist es unerlässlich, das Signal herausfiltern zu können, da es bis zur Unkenntlichkeit begraben ist.
Stabile Nanoemulsionen: Selbstorganisation in Natur und Nanomedizin
Abstrakt
Partikelgrößenverteilungen , abgeleitet aus der Photonenkorrelationsspektroskopie (PCS) von Mikrobläschen-Tensidlösungen, werden vorgestellt, die die Bildung von Gasmikrobläschen aus großen mizellaren Strukturen sowie den umgekehrten Prozess des Kollabierens von Gasmikrobläschen in solche mizellaren Strukturen nahelegen. Eine detaillierte Untersuchung der PCS-Daten (in Kombination mit einem Überblick über die einschlägige chemische Literatur) zeigt, dass dieser reversible Prozess tatsächlich Teil eines Zyklus ist, nämlich Mikrobläschenbildung und -koaleszenz, gefolgt von Mikrobläschenspaltung und -verschwinden. Dieser zyklische Mikrobläschenprozess wird durch vorheriges mechanisches Rühren und somit Einschließen makroskopischer Gasbläschen in diesen gesättigten Tensidlösungen gefördert.
Wie entscheidet man, welcher Teil der Daten analysiert wird? - Astronomie
Beachten Sie, dass jede Anfrage nach Personendaten vor der Veröffentlichung von Personendaten durch die entsprechenden NASA-Prüfungsgremien bewertet und genehmigt werden muss. Für die Veröffentlichung von Daten müssen bestimmte Anforderungen erfüllt werden, einschließlich, aber nicht beschränkt auf den Nachweis des Peer-Reviews und der Finanzierung Ihres Studienprotokolls und die Genehmigung des Institutional Review Board (IRB) von Ihrer Institution. Weitere Anforderungen und Richtlinien der NASA sind unten aufgeführt.
Sie müssen bestätigen, dass Sie die bereitgestellten Informationen gelesen und verstanden haben, bevor Sie Ihre Anfrage absenden.
Benutzerhandbuch zum Anfordern von NASA-Daten
Anfordern von Personendaten [Zurück nach oben]
- Gepoolt: Einzelne Datenpunkte werden gruppiert. Typische gepoolte Daten liegen in Form eines Mittelwerts und/oder einer Spanne vor. Viele dieser Daten aus Forschungsstudien sind auf dieser Website öffentlich zugänglich.
- Anonymisiert: Datenpunkte bleiben individuell, aber alle identifizierenden Informationen wurden entfernt. Beispiele für Felder, die Daten identifizierbar machen, sind Missionsdauer und Geschlecht. Manchmal kann ein Datenfeld breit genug angelegt werden, um die Vertraulichkeit zu wahren (z. B. wird die Missionsdauer nicht auf eine bestimmte Anzahl von Tagen, sondern auf einen Bereich von Tagen festgelegt). Anfragen nach gepoolten oder anonymisierten Daten mit Nachweisen einer wissenschaftlichen Bewertung sind am schnellsten zu bearbeiten. Da die Daten jedoch unter unterschiedlichen Umständen aufgenommen wurden, ist in der Regel eine gewisse Iteration erforderlich, um die beste Methode zur Bereitstellung der Daten an den Forscher zu bestimmen. Unsere Mitarbeiter werden mit den Forschern zusammenarbeiten, um ihre Anfragen zu verfeinern.
- Zuordenbar (identifizierbar): Individuelle Datenpunkte mit identifizierenden Informationen.
Forschungsdaten-Repository (LSDA) [Zurück nach oben]
Hintergrundinformationen zum Projekt Life Sciences Data Archive (LSDA) finden Sie auf der LSDA-Homepage.
LSDA unterstützt die Veröffentlichung von Astronauten- und Fluganalogdaten, um die Forschungsgemeinschaft zu unterstützen. Sowohl anonymisierte als auch möglicherweise zuordenbare (identifizierbare) Daten können für interne und externe von der NASA begutachtete Forschungsstudien zur Verfügung stehen nach einem gründlichen Überprüfungs- und Genehmigungsprozess und der JSC IRB-Genehmigung . Siehe Datenkategorien oben.
Sie können die LSDA-Datenbanken mit der Freitextsuche ("Search LSDA" in der Navigationsleiste) oder durch die Suche in einem der acht Module – Experimente, Missionen, Personal, Bioproben, Dokumente, Hardware, Datensätze und Fotogalerie – durchsuchen die Homepage.
Wenn Sie Hilfe benötigen, senden Sie bitte Ihre Anfrage: https://lsda.jsc.nasa.gov/Common/feedback. Verwenden Sie dieses Formular nicht für die Übermittlung von Datenanfragen.
- Erforderliche Vorlaufzeit: Erlaube nicht weniger als 25 Monate ab dem Datum der Anfrage bis zum Erhalt der Daten für zuordenbare (identifizierbare) Daten und 13 Monate für anonymisierte Daten. Die Durchführbarkeit der Bereitstellung eines anonymisierten Datensatzes wird von der NASA bestimmt.
- Einschränkungen der Daten: Die Daten in den LSDA-Datenbanken wurden auf der Grundlage der vom ursprünglichen Principal Investigator (PI) eingereichten Experimentprotokolle erhalten und von der NASA zur Durchführung genehmigt. Auch wenn eine Studie möglicherweise mehrere Parameter auflistet, die im Verlauf der Studie gemessen wurden, können die verfügbaren Daten eine Teilmenge der vom PI gesammelten Daten sein.
- Überprüfung der Zuordnung: Abstracts, Manuskripte, Präsentationen und zugehörige Datentabellen, Grafiken, Bilder und Änderungen des Herausgebers der Zeitschrift, die sich aus Ihrer Datenanfrage ergeben, die zuordenbare (identifizierbare) Daten verwenden, erfordern eine Überprüfung durch den LSAH-Beirat und Zustimmung vor der Verteilung und Einreichung zur Veröffentlichung oder sonstigen Verwendung, sofern vom LSAH-Beirat nichts anderes bestimmt ist. Alle aus der Studie resultierenden Veröffentlichungen sollten LSDA und/oder LSAH angemessen anerkennen.
Ein LSAH-Epidemiologe und/oder LSDA-Archivar wird beauftragt, Ihre Anfrage zu bearbeiten und Sie durch den Prozess zu führen. Dies beinhaltet (ist aber nicht beschränkt auf) die folgenden:
- Datensatz und Datenformat verfeinert (6 Monate)
- Bewertung des Datensatzes als nicht zuordenbar versus zuordenbar (identifizierbar). Falls anrechenbar, Präsentation vor dem LSAH-Beirat zur Genehmigung (2-6 Monate)
- IRB-Zulassung (siehe https://irb.nasa.gov/ ) (2-4 Monate)
- Einwilligungserklärung (1-6 Monate)
- Datennutzungsvertrag (2-3 Monate) (erforderlich beim Erhalt potenziell zuordenbarer Daten)
- LSAH Advisory Board Attributability Review for Approval Vor Verbreitung von Informationen, die sich aus Datenanfragen ergeben, unter Verwendung von zuordenbaren Daten. Dies umfasst unter anderem Abstracts, Manuskripte, Präsentationen und alle zugehörigen Datentabellen, Grafiken, Bilder und Änderungen der Zeitschriftenredaktion.
Medizinisches Datenarchiv (LSAH) [Zurück nach oben]
Hintergrundinformationen zum Projekt Lifetime Surveillance of Astronaut Health (LSAH) finden Sie auf der LSAH-Homepage.
LSDA unterstützt die Veröffentlichung von Astronauten- und Fluganalogdaten, um die Forschungsgemeinschaft zu unterstützen. Sowohl anonymisierte als auch möglicherweise zuordenbare (identifizierbare) Daten können für interne und externe von der NASA begutachtete Forschungsstudien zur Verfügung stehen nach einem gründlichen Überprüfungs- und Genehmigungsprozess und der JSC IRB-Genehmigung . Siehe Datenkategorien oben.
Eine Zusammenfassung der durchgeführten medizinischen Tests und Beschreibungen dieser Tests stehen zum Download bereit:
- Erforderliche Vorlaufzeit: Erlaube nicht weniger als 25 Monate vom Datum der Anfrage bis zum Erhalt der Daten für zuordenbare (identifizierbare) Daten und 13 Monate für anonymisierte Daten. Die Durchführbarkeit der Bereitstellung eines anonymisierten Datensatzes wird von der NASA bestimmt.
- Einschränkungen der Daten: Die Daten in den LSDA-Datenbanken wurden auf der Grundlage der vom ursprünglichen Principal Investigator (PI) eingereichten Experimentprotokolle erhalten und von der NASA zur Durchführung genehmigt. Auch wenn eine Studie möglicherweise mehrere Parameter auflistet, die im Verlauf der Studie gemessen wurden, können die verfügbaren Daten eine Teilmenge der vom PI gesammelten Daten sein.
Ein LSAH-Epidemiologe und/oder LSDA-Archivar wird beauftragt, Ihre Anfrage zu bearbeiten und Sie durch den Prozess zu führen. Dies beinhaltet (ist aber nicht beschränkt auf) die folgenden:
- Datensatz und Datenformat verfeinert (6 Monate)
- Bewertung des Datensatzes als nicht zuordenbar versus zuordenbar (identifizierbar). Falls anrechenbar, Präsentation vor dem LSAH-Beirat zur Genehmigung (2-6 Monate)
- IRB-Zulassung (siehe https://irb.nasa.gov/ ) (2-4 Monate)
- Einwilligungserklärung (1-6 Monate)
- Datennutzungsvertrag (2-3 Monate) (erforderlich beim Erhalt potenziell zuordenbarer Daten)
- LSAH Advisory Board Attributability Review for Approval Vor Verbreitung von Informationen, die sich aus Datenanfragen ergeben, unter Verwendung von zuordenbaren Daten. Dies umfasst unter anderem Abstracts, Manuskripte, Präsentationen und alle zugehörigen Datentabellen, Grafiken, Bilder und Änderungen der Zeitschriftenredaktion.
Verwendung menschlicher Daten: Anwendbare Gesetze und Vorschriften [Zurück nach oben]
- verbietet die Offenlegung von Aufzeichnungen, die in einem von einer Bundesbehörde (oder ihren Auftragnehmern) geführten Aufzeichnungssystem enthalten sind, ohne die schriftliche Anfrage oder Zustimmung der Person, auf die sich die Aufzeichnungen beziehen. Das Datenschutzgesetz erlaubt es Behörden, Informationen für andere Zwecke offenzulegen, die als "routinemäßige Verwendungen" definiert sind und in den Federal Register Systems of Record Notice definiert und veröffentlicht werden. ist das anwendbare Aufzeichnungssystem für das LSAH-Repository. ist das anwendbare Aufzeichnungssystem für das LSDA-Repository. besagt, dass die Betroffenen das Recht haben, über den Umfang der Verwendung ihrer Daten zu entscheiden. umreißt die grundlegenden Bestimmungen für IRBs, Einwilligungserklärungen und Compliance-Zusicherungen. Darin heißt es zum Teil: „Der erforderliche Mindeststandard verlangt von den erfassten Einrichtungen, dass sie ihre Praktiken bewerten und die Sicherheitsvorkehrungen nach Bedarf verbessern, um den unnötigen oder unangemessenen Zugang zu und die Offenlegung geschützter Gesundheitsinformationen zu begrenzen.“ computerlesbare Datenauszüge aus Datenbanken mit sensiblen Informationen und überprüfen Sie, ob jeder Auszug einschließlich sensibler Daten innerhalb von 90 Tagen gelöscht wurde oder seine Verwendung noch erforderlich ist."
Anfordern von Bioproben [Zurück nach oben]
Die LSDA enthält auch ein Tierbioproben-Repository, das der wissenschaftlichen Gemeinschaft Zugang zum Inventar biologischer Materialien der NASA aus im Weltraum geflogenen Organismen oder aus verwandten Bodenkontrollstudien bietet.
Nutzungsbedingungen: Antragsteller können Vorschläge speziell für die Analyse von Materialien aus diesem Programm oder als ergänzende oder ergänzende Komponente eines Versuchsvorhabens in einem anderen Forschungsbereich einreichen.
- Die Materialien bleiben Eigentum der NASA
- Die Materialien dürfen nur für den zugelassenen Zweck verwendet werden
- Nicht verwendete Teile der Bioproben müssen nach Abschluss der Studie an die NASA zurückgegeben werden
- Die Annahme von Materialien verpflichtet den Antragsteller, der NASA die Ergebnisse der Studie zur Verfügung zu stellen
Diese Produkte sollten die elektronische Übermittlung von Rohdaten und analysierten Daten sowie einen Abschlussbericht zur Archivierung durch die LSDA umfassen. Alle aus der Studie resultierenden Veröffentlichungen sollten der NASA angemessen zugeordnet werden.
Um Bioproben anzufordern, füllen Sie das ANFRAGEFORMULAR aus und senden Sie es ab.
Anfordern von mikrobiellen Proben der Internationalen Raumstation (ISS) [Zurück nach oben]
Die NASA unterhält eine Sammlung von Mikroorganismen, die aus der Luft, Oberflächen und Wasserproben aus den NASA-Modulen der ISS kultiviert wurden. Diese Mikroorganismen stehen der wissenschaftlichen Gemeinschaft mit einem genehmigten Forschungsantrag zur Verfügung. Antragsteller können Anträge speziell für die Analyse von Materialien aus diesem Programm oder als ergänzende oder ergänzende Komponente eines Versuchsantrags in einem anderen Forschungsbereich einreichen.
Das angeforderte Material wird unter den folgenden Bedingungen bereitgestellt:
- Die von der NASA bereitgestellten Stämme werden kollektiv als das Material bezeichnet.
- Das Absenden des Antragsformulars für mikrobielles Material der NASA bedeutet, dass der Antragsteller/Empfänger diese Nutzungsbedingungen akzeptiert.
- Das Material wird nur an eine institutionelle Adresse versandt.
- Der Empfänger muss Handhabungsverfahren anwenden, die dem angegebenen BioSafety Level (BSL) des bereitgestellten Materials entsprechen.
- Das Material bleibt Eigentum der NASA.
- Das Material darf nur für den genehmigten Zweck verwendet werden.
- Nicht verwendete Teile des Materials müssen nach Abschluss der Studie an die NASA zurückgegeben werden.
- Die Annahme des Materials verpflichtet den Empfänger, der NASA die Ergebnisse der Studie zur Verfügung zu stellen.
- Der Empfänger stellt der NASA elektronische Übermittlungen von Rohdaten und analysierten Daten sowie einen Abschlussbericht zur Archivierung durch die NASA zur Verfügung.
- Der Empfänger erkennt den Beitrag der NASA zu allen gemeldeten Arbeiten an, die das Material verwenden.
- Jeder Dritte, der eine Probe des Materials anfordert, wird an die NASA verwiesen. Der Empfänger darf das Material nicht an Dritte weitergeben.
- Der Empfänger darf in keiner Weise angeben oder andeuten, dass dies eine Billigung der Organisationseinheiten, Mitarbeiter, Produkte oder Dienstleistungen des Empfängers durch die NASA ist, es sei denn, die Genehmigung wurde ausdrücklich von einem autorisierten Vertreter der NASA erteilt.
- Die Parteien erkennen an und verpflichten sich, alle geltenden Gesetze und Vorschriften, einschließlich derjenigen der Export Control Administration, in Bezug auf den Besitz oder die Übertragung von technischen Informationen, biologischen Materialien, Krankheitserregern, Toxinen, genetischen Elementen, gentechnisch veränderten Mikroorganismen, Impfstoffen und dergleichen einzuhalten.
- Der Empfänger übernimmt die alleinige Verantwortung für alle Ansprüche oder Verbindlichkeiten, die sich aus der Verwendung des Materials durch den Empfänger ergeben können.
- NASA gibt keine ausdrücklichen oder stillschweigenden Gewährleistungen oder Garantien für das Material, einschließlich der Marktgängigkeit oder Eignung für einen bestimmten Zweck.
Eine Liste der für die Forschung verfügbaren mikrobiellen Proben ist enthalten (unter "Daten anzeigen") mit folgendem Archiveintrag: Microbial Analysis of International Space Station (ISS) Air, Surfaces and Water (ISS_Micro_Analysis)
Astronomie
Astronomen analysieren die Planeten, Sterne und andere Himmelskörper. Studenten der Fakultät für Physik und Astronomie der OU untersuchen die Entwicklung der Sterne, die Bewegung der Planeten und die Auswirkungen dieser Veränderungen auf das Universum. Diese Studenten erwerben wichtige Kenntnisse in Forschung, Mathematik und Naturwissenschaften, die in einer Vielzahl von Jobs in großen Unternehmen wie Boeing, Lockheed Martin und Raytheon benötigt werden. Neben der Vorbereitung auf Karrieren in der Astronomie erlernen die Studierenden die wichtigsten technischen Fähigkeiten, die für Karrieren in den Bereichen Data Science, Luft- und Raumfahrt, Finanzwesen, technische Redaktion und wissenschaftliche Forschung erforderlich sind. Die Fähigkeiten, die die Studierenden im Bachelor erwerben, sind sehr vielseitig und wünschenswert.
Studenten des Astronomieprogramms haben die Möglichkeit, mit der Fakultät der OU an sinnvollen Forschungen zu Sternen- und Planetenentstehung, Supernovae, Schwarzen Löchern und Galaxien teilzunehmen. Sie werden im Rahmen eines ihrer geplanten Kurse praktische Erfahrungen mit einem 3,5-Meter-Forschungsteleskop am Apache Point Observatory in New Mexico sammeln. In ihrem Abschlusskurs arbeiten die Studierenden in Gruppen, um ihre Fähigkeiten im öffentlichen Sprechen und wissenschaftliches Denken zu verbessern. Die Studierenden arbeiten auch im Einzelunterricht mit Professoren zusammen, um sie auf ihre spätere Karriere vorzubereiten.
Also, was ist mein Abschluss?
OU bietet zwei verschiedene Studiengänge in Astronomie/Astrophysik an: Zum einen den berufsqualifizierenden Abschluss Bachelor of Science in Astrophysik (Major Code B082) und zum anderen den Standardabschluss in Astronomie namens Bachelor of Science in Astronomy (Major Code B080). Der Studiengang Astrophysik ist intensiver in Mathematik und Physik und richtet sich an Studenten, die ein Studium anstreben oder in die Datenwissenschaft einsteigen. Der Astronomie-Abschluss richtet sich an Studenten, die möglicherweise andere Karrierewege wählen, wie z. B. Lehramt, Öffentlichkeitsarbeit oder technische Redaktion.
Passen meine Interessen?
Astronomiestudenten haben typischerweise Interesse an:
- Mathematik
- Wissenschaft
- Physik
- Weltraum (Sterne, Galaxien, Planeten, Schwarze Löcher, Teleskope, Kosmologie)
- Probleme lösen
- Wie die Dinge funktionieren
Die Vorbereitung auf das Abitur sollte Mathematik und Naturwissenschaften, insbesondere Physik, umfassen.
Wie kann mir OU Astronomy helfen?
Mit einem Verhältnis von 4:1 von Lehrkräften zu Studierenden gibt es zahlreiche Möglichkeiten, Lehrende kennenzulernen und mit ihnen zu arbeiten. Unsere Absolventen sind in akademischen und industriellen Positionen im ganzen Land und auf der ganzen Welt tätig. Unsere Capstone-Erfahrung garantiert, dass jeder Student echte, hochmoderne Forschungserfahrung erhält.
Eine Eiscreme-Definition der Halbwertszeit
Stellen Sie sich vor, Sie genießen eine bestimmte Eissorte mit Schokoladenstückchen. Sie haben einen hinterhältigen, aber nicht besonders schlauen Mitbewohner, der das Eis selbst nicht mag, aber nicht widerstehen kann, die Chips herauszupicken – und um nicht entdeckt zu werden, ersetzt er jeden, den er konsumiert, durch eine Rosine.
Er hat Angst, dies mit all den Schokoladenstückchen zu tun, also wischt er stattdessen jeden Tag die Hälfte der restlichen Schokoladenstückchen und setzt Rosinen an ihre Stelle, um seine teuflische Verwandlung Ihres Desserts nie ganz zu vollenden, sondern nähert sich und näher.
Sagen Sie, ein zweiter Freund, der von dieser Anordnung weiß, besucht Sie und bemerkt, dass Ihre Eistüte 70 Rosinen und 10 Schokoladenstückchen enthält. Sie erklärt: "Ich schätze, du warst vor drei Tagen einkaufen." Woher weiß sie das?
Ganz einfach: Sie müssen mit insgesamt 80 Chips begonnen haben, denn Sie haben jetzt 70 + 10 = 80 Gesamtzusätze zu Ihrem Eis. Da Ihr Mitbewohner an einem Tag die Hälfte der Chips isst und keine feste Anzahl, muss der Karton am Vortag 20 Chips, am Vortag 40 und am Vortag 80 Chips enthalten haben.
Berechnungen mit radioaktiven Isotopen sind formaler, folgen aber demselben Grundprinzip: Wenn Sie die Halbwertszeit des radioaktiven Elements kennen und messen können, wie viel von jedem Isotop vorhanden ist, können Sie das Alter des Fossils, Gesteins oder einer anderen Einheit bestimmen, aus der es stammt.
Big-Data-Typen verwenden, um Big-Data-Merkmale zu klassifizieren
Es ist hilfreich, die Eigenschaften von Big Data in bestimmten Richtungen zu betrachten – zum Beispiel wie die Daten gesammelt, analysiert und verarbeitet werden. Sobald die Daten klassifiziert sind, können sie mit dem entsprechenden Big-Data-Muster abgeglichen werden:
- Analysetyp – Ob die Daten in Echtzeit analysiert oder für eine spätere Analyse gestapelt werden. Wählen Sie den Analysetyp sorgfältig aus, da er mehrere andere Entscheidungen zu Produkten, Tools, Hardware, Datenquellen und erwarteter Datenhäufigkeit beeinflusst. Je nach Anwendungsfall kann eine Mischung aus beiden Typen erforderlich sein:
- Die Analyse der Betrugserkennung muss in Echtzeit oder nahezu in Echtzeit erfolgen.
- Die Trendanalyse für die Analyse strategischer Geschäftsentscheidungen kann im Batch-Modus erfolgen.
- On demand, wie bei Social Media Daten
- Kontinuierlicher Feed, Echtzeit (Wetterdaten, Transaktionsdaten)
- Zeitreihen (zeitbasierte Daten)
- Geschäftsabläufe
- Geschäftsanwender
- Geschäftliche Anwendungen
- Einzelne Personen in verschiedenen Geschäftsrollen
- Teil der Prozessabläufe
- Andere Daten-Repositorys oder Unternehmensanwendungen
Abbildung 1 unten zeigt die verschiedenen Kategorien zur Klassifizierung von Big Data. Schlüsselkategorien zur Definition von Big-Data-Mustern wurden identifiziert und blau gestreift hervorgehoben. Big-Data-Muster, die im nächsten Artikel definiert werden, werden aus einer Kombination dieser Kategorien abgeleitet.
Abbildung 1. Big-Data-Klassifizierung
4 Datenpunkte, die alle Feuerwehrchefs kennen sollten
In den kommenden Jahren werden Daten mehr Daten produzieren, Grenzen überschreiten, Innovationen vorantreiben und weltweit neue Herausforderungen und Bedenken schaffen.
Laut der Digitalisierung der Welt, Heute interagieren mehr als 5 Milliarden Verbraucher täglich mit Daten, und bis 2025 werden es 6 Milliarden oder 75 % der Weltbevölkerung sein. Im Jahr 2025 wird jede verbundene Person alle 18 Sekunden mindestens eine Dateninteraktion haben. Diese Vorhersagen sind atemberaubend, aber das Ausmaß der Gesamtauswirkungen der Daten wird wahrscheinlich unterschätzt.
Auch der Einfluss von Daten auf die Feuerwehr wird oft unterschätzt. Es gibt zahlreiche Bereiche innerhalb einer Feuerwehr, in denen Daten benötigt werden. Einige Datenassets sind leicht verfügbar und andere schwer fassbar. Unabhängig davon benötigen Feuerwehrchefs und andere Beamte Daten für die sofortige und langfristige Entscheidungsfindung.
Was sind also die wichtigsten Datensätze oder Informationskategorien, die erforderlich sind, um ein informierter und effektiver Feuerwehrführer zu sein? Betrachten wir zunächst vier Datenkategorien, zugehörige Datentools und verfügbare Leistungskennzahlen in Bezug auf Community-Risiken und den Einsatz von Betriebsressourcen.
1. Gemeinschaftsrisikobewertung
Das Verständnis von Bedrohungen, Gefahren und damit verbundenen Risiken wird es Entscheidungsträgern erleichtern, zu bestimmen, welches Maß an Notfallmaßnahmen sie aufbauen und aufrechterhalten sollten. Im Umfeld der öffentlichen Sicherheit gibt es verschiedene Modelle zur Risikobewertung (Community Risk Assessment, CRA). Die meisten verfolgen einen grundlegenden Ansatz, um zu bestimmen, welche Gefahren/Risiken in der Gemeinde bestehen (einschließlich der bebauten Umgebung, der Bevölkerung und des Naturphänomens) und der potenziellen Auswirkungen eines nachteiligen Risikoereignisses.
Die FEMA hat einen CRA-Prozess entwickelt, den alle Regierungsebenen nutzen können. Die Threat and Hazard Identification and Risk Assessment (THIRA) identifiziert und bewertet Bedrohungen und Gefahren in einer Gemeinschaft. Der Prozess verwendet auch Fähigkeitsziele, um die wahrscheinlichen Auswirkungen von Ereignissen in Ziele für die Bereitschaft der Gemeinschaft und die allgemeine Reaktions-/Abschwächungsfähigkeit zu übersetzen. Für Feuerwehren bedeutet dieser Prozess die Frage: „Wie gut setzt die Feuerwehr ihre Ressourcen ein, um dem Risikoereignis zu entsprechen, auf das die Feuerwehrleute reagieren?“
Auf nationaler Ebene legt THIRA Fähigkeitsziele fest, die die Nation angehen soll. Auf Feuerwehrebene haben die Einsatzleiter und ihre Beauftragten Zugang zum Fire Community Assessment/Response Evaluation System (FireCARES), das von DHS/FEMA/AFG finanziert wird. FireCARES umfasst Datensätze, die Flurstücksdaten (bebaute Umgebung) kombinieren, die auf der Grundlage von NFPA-Definitionen für niedrige, mittlere und hohe Gefahrenstufen gefahrenkodiert wurden. Das System enthält außerdem geokodierte historische Feuerdaten aus über 14 Jahren sowie demografische Volkszählungsdaten.
Diese Datensätze werden unter Verwendung eines Regressionsmodells analysiert, um das Brandrisiko, die Brandausbreitung und das Risiko von Tod und Verletzung durch das Feuer für jede Feuerwehrgerichtsbarkeit in den USA zu bewerten. FireCARES steht jeder US-Feuerwehr kostenlos zur Verfügung.
2. Demografische Merkmale der Community
Im föderalen Sektor stehen mehrere Datensätze zur Verfügung, die auf lokaler Ebene äußerst nützlich sein können. Zum Beispiel wird die US-Volkszählung alle 10 Jahre durchgeführt, um eine offizielle Zählung der US-Bevölkerung zu ermöglichen. Die Daten der Volkszählung 2020 werden in Kürze als Referenz und Verwendung zur Verfügung stehen. Die Volkszählung enthält mehr Daten als nur eine Bevölkerungszahl. Andere Datenvariablen in der Volkszählung umfassen Aufschlüsselung nach ethnischer Zugehörigkeit, Einkommen und Wohnwert – alle relevant für die örtlichen Feuerwehren für die Risikobewertung und Reaktionsplanung.
Ein weiterer relevanter Datensatz im Rahmen des Census, der häufiger erhoben wird, ist der American Community Survey (ACS). Die ACS-Daten zeigen, wie Menschen leben. Der Datensatz umfasst Informationen zu Bildung, Wohnen, Arbeitsplätzen und den sozialen und wirtschaftlichen Bedürfnissen der lokalen Gemeinschaften. Die Ergebnisse des ACS können verwendet werden, um zu entscheiden, wo neue Feuerwachen oder zusätzliche Einsatzeinheiten benötigt werden.
Ein weiterer nützlicher Datensatz in dieser Kategorie ist der Social Vulnerability Index (SVI) der Centers for Disease Control and Prevention (CDC). Der CDC SVI verwendet 15 Volkszählungsvariablen und soll lokalen Beamten helfen, Gemeinschaften zu identifizieren, die vor, während oder nach Katastrophen Unterstützung benötigen. Soziale Vulnerabilität bezieht sich auf das Potenzial negativer Auswirkungen auf Gemeinschaften, die durch externe Belastungen auf die Gesundheit und das Wohlbefinden der Menschen verursacht werden. Zu diesen Stressoren gehören in der Regel Naturkatastrophen oder vom Menschen verursachte Katastrophen oder Krankheitsausbrüche wie COVID-19. Sie kann jedoch bei CRR-Bemühungen ebenso nützlich sein, um die soziale Anfälligkeit für Feuer und andere Notfälle zu verringern und dadurch Verletzungen, Todesfälle und wirtschaftliche Verluste zu verringern.
3. Aktuelle Fähigkeiten
Ein weiteres FEMA-Bewertungsprodukt, bekannt als Stakeholder Preparedness Review (SPR), misst Bereitschaftsfähigkeiten und analysiert Lücken zwischen aktuellen Fähigkeits- und Fähigkeitszielen oder die Fähigkeitslücke. Der SPR ermöglicht es Gemeinschaften, aktuelle Fähigkeiten und Lücken zu messen, die sie daran hindern, ihre Fähigkeitsziele zu erreichen, und hilft bei der Entwicklung von Strategien, um diese Lücken zu schließen.
Bei der Feuerwehr konzentrieren sich Diskussionen über die Fähigkeiten in der Regel auf die Reaktion. Zu den Reaktionsfähigkeiten gehören die Annahme und Weiterleitung von Anrufen, die Standortbestimmung von Stationen, die Bereitstellung von mobilen und personellen Ressourcen sowie Vorbereitungstraining. Diese sind zwar alle wichtig, aber ebenso wichtig ist es zu überlegen, wie die Bemühungen zur Risikominderung in der Gemeinschaft (Community Risk Reduction, CRR) dazu beitragen können, Kompetenzlücken zu schließen.
Als zukünftige Referenz entwickelt die FEMA eine Reihe von Bewertungsprodukten, die zusammen als National Risk and Capability Assessment (NRCA) bekannt sind und die Risiken und Fähigkeiten im ganzen Land in einem standardisierten und koordinierten Prozess messen werden. Die örtlichen Feuerwehren sollten darauf vorbereitet sein, mit ihren eigenen Risikobewertungs- und Reaktionsdaten zu diesem Produkt beizutragen. Das von DHS/FEMA/AFG finanzierte National Fire Operations Reporting System (NFORS) wurde entwickelt, um die lokalen Abteilungen bei diesen und anderen Messbemühungen zu unterstützen. NFORS verwendet vorhandene Daten, um die Auswirkungen der Einsatzbereitschaft, der Einsatzfähigkeit und der betrieblichen Effektivität der Feuerwehr auf das Ergebnis eines Brandes oder eines anderen Notfalls zu bewerten. Die Optimierung des Ressourceneinsatzes und der Einsatzfähigkeit vor Ort, um dem Risikoniveau des Notfalls gerecht zu werden, minimiert das Auftreten von Verletzungen und Todesfällen von Feuerwehrleuten, zivilen Verletzungen und Todesfällen sowie Sachschäden.
4. Leistung der Notfallreaktion (Operationen)
Es gibt wichtige Leistungskennzahlen, die Feuerwehren verfolgen sollten, um sinnvolle operative Entscheidungen zu treffen. Heute gibt es neue Methoden, um die für diese Maßnahmen erforderlichen Daten zu erfassen, die es Feuerwehrleitern erleichtern, die Daten zu verwenden, um Veränderungen auf Verwaltungs-, Unternehmens- und einzelner Feuerwehrebene zu bewirken. Diese Daten und betrieblichen Maßnahmen enthalten auch Informationen für Ausbildungsbeauftragte. Diese Leistungsinformationen können Bereiche von Abteilungsstärken und betrieblichen Defiziten aufzeigen und eine kontinuierliche Verbesserung und Budgetierung für zukünftige Änderungen fördern.
NFPA 1710: Organization and Deployment of Fire Suppression Operations, EMS and Special Operations in Career Fire Departments (2020) hat mehrere Leistungsziele, die für Feuerwehrleiter nützlich sind. Die Ziele bieten einen Branchen-Benchmark, an dem Feuerwehren ihre Leistung messen können. Beispiele für 1710 Maßnahmen:
- Alarmantwortzeit: 15 Sekunden für 95 % der Anrufe 40 Sekunden für 99 % der Anrufe
- Alarmbearbeitungszeit: 64 Sekunden für 90 % der Anrufe 106 Sekunden für 95 % der Anrufe
- Einsatzzeit: 60 Sekunden für EMS-Reaktionen 80 Sekunden für Feuerreaktionen
- Ankunftszeit der ersten Maschine am Einsatzort: 240 Sekunden (4 Minuten) für 90 % der Antworten bei einer Mindestbesetzung von 4 Mitarbeitern
- Ankunftszeit der zweiten Kompanie am Tatort: 360 Sekunden (6 Minuten) für 90 % der Antworten bei einer Mindestbesetzung von 4 Mitarbeitern
- Anfänglicher Vollalarm – Montagezeit bei niedriger und mittlerer Gefahr: 480 Sekunden (8 Minuten) bei 90 % der Reaktionen
- Anfänglicher Vollalarm – Hochrisiko-/Hochhausmontagezeit: 610 Sekunden (10 Minuten 10 Sekunden) bei 90 % der Reaktionen
Es gibt mehrere andere relevante Notfalldatenpunkte und operative Maßnahmen.
Personal/Besatzungsgröße ist eine wichtige Determinante bei der Zusammenstellung einer effektiven Reaktionskraft am Einsatzort. Die Besatzungsgröße bestimmt auch, welche Aufgaben erledigt werden können, sobald eine Einheit am Einsatzort eintrifft. Beispielsweise kann ein First-In-Triebwerk mit einer dreiköpfigen Besatzung keine Innenbrandbekämpfung durchführen, bis eine zweite Einheit eintrifft, um die OSHA-Anforderung für Two-In/Two-Out zu erfüllen (es sei denn, es besteht eine bekannte Lebensgefahr). Während Zwei-Ein-/Aus-Auseinandersetzungen innerhalb der Feuerwehr gut bekannt sind, verstehen Entscheidungsträger auf kommunaler Ebene die Auswirkungen der Anforderung auf den Betrieb und damit die Auswirkungen einer Reduzierung der Besatzungsstärke auf die Leistung möglicherweise nicht vollständig.
Ankunft der ersten Einheit bezeichnet das zuerst eintreffende Feuerwehrfahrzeug mit dem Potenzial, in die Situation einzugreifen und die Eskalation des Vorfalls zu verlangsamen oder zu stoppen. In Ermangelung von Einsatzzeiten am Einsatzort kann die Ankunftszeit der ersten Einheit, wenn die Besatzungsgröße und der Strukturtyp bekannt sind, als Proxy für die Schätzung von Aufgaben wie der Wasser-auf-Feuer-Zeit verwendet werden.
Ankunft des ersten Alarms (effektive Eingreiftruppe) bedeutet, dass unter den zu erwartenden Bedingungen am Einsatzort die Anzahl der im Einsatz befindlichen Mitglieder eines Erstalarms durch eine Aufgabenanalyse bestimmt werden sollte. Diese Analyse sollte die durch Lebensgefahr geschützte Bevölkerung, die sichere und effektive Leistung, den möglichen Verlust von Eigentum, die Gefahrenstufen der Eigenschaften und die angewandten Taktiken berücksichtigen. Der Zeitpunkt des vollständigen Aufbaus des Personalvermögens ist entscheidend, um sicherzustellen, dass die Aufgaben der Risikokontrolle rechtzeitig und effektiv umgesetzt werden können. Auf dem Feuerplatz zum Beispiel ist die Koordinierung der Belüftung mit Wasser auf dem Feuer ein absolutes Muss und erfordert genügend Personal, um beide Aufgaben zu erfüllen.
Eingriffszeit ist die Zeit, in der Rettungskräfte am Einsatzort eintreffen, um den Notfall zu stoppen. For EMS, this time is typically when the responders are at a patient’s side. For fire response, this time may be documented as water on fire time, given that this intervention time is a critical indicator of operational performance and stopping risk escalation.
Mehr Informationen: The Metropolitan Fire Chiefs Association has established a position on operational performance measures. The statement notes that performance measures can be used to learn, improve and optimize fire department operations. Performance measures can also be used to establish benchmarks for a department’s performance, provide comparative metrics for other departments, and identify and promote best practices. Specifically, fire department performance should be measured according to indicators of quality and effectiveness that are established for the emergency response system. Measuring fire department performance using appropriate indicators is expected to 1. provide continuous measurement of quality in the system 2. identify areas of excellence 3. highlight sentinel events 4. verify effectiveness of a corrective action 5. allow comparison of the department to established operational standards and 6. contribute to establishing new standards for performance.
Pulling it together
Risk assessment, planning, prevention, preparedness, along with response and on scene performance, are fire department functions that require continual attention. Understanding and procuring the data, and the data tools, necessary to evaluate these functions for reporting and for informed decision making must be considered by every fire chief.
In Part 2, we review six additional data sources necessary for system-level insights, fire department management, and decision-making. We’ll also consider the era of digitization and how fire departments can use data to position themselves for success.
Data Analysis for Advanced Science Projects
Whether your goal is to present your findings to the public or publish your research in a scientific journal, it is imperative that data from advanced science projects be rigorously analyzed. Without careful data analysis to back up your conclusions, the results of your scientific research won't be taken seriously by other scientists. The sections below discuss techniques, tips, and resources for thorough scientific data analysis. Although this guide will mention various data-analysis principles and statistical tests, it is not meant to be an exhaustive textbook. Instead, you're encouraged to use this guide as a means of familiarizing yourself with the general principles of data analysis. Once you're familiar with the concepts, we encourage you to continue your exploration of the topics most relevant to your science project using the references listed in the Bibliography, as well as personal resources, such as your mentor and other science and math professionals, including your teachers. We also encourage you to read our accompanying articles about the Experimental Design for Advanced Science Projects and the Increasing the Ability of an Experiment to Measure an Effect. When used collectively, the information in these three articles will put you on the path towards a well-thought-out, top-quality research project.
Common Incorrect Assumptions About Data Analysis
Three common mistakes among young scientists are assuming that:
- Data analysis occurs only after you are done collecting all your data.
- Data analysis is quick&mdashyou pick your analysis methods, apply them in a "plug-in" fashion, and then you are done.
- Data can stand alone without additional context.
None of these things could be further from the truth. Data analysis is an ongoing process in a research project. Planning what kinds of analyses you're going to perform with your data is a critical part of designing your experiments. If you skip this step, you might find yourself with insufficient data to draw a meaningful conclusion. For more details on how successful data analysis and good experimental design are co-dependent, see the Science Buddies guide to Experimental Design for Advanced Science Projects.
Once you have designed your experiments and are carrying them out, it can be wise to do some data analysis, even while you are collecting your data, to ensure that the observations are within expected parameters. For example, you might calculate the yield of a DNA extraction in the midst of an experiment to make sure the procedure worked well before moving on to the next step. This kind of analysis prevents you from wasting valuable experimental time if something is wrong with your experimental procedure, and can eliminate confusion later over aberrant data. Data should also be analyzed between independent replicates in case the trends or observations from one experimental repeat offers insights on how to better design additional repeats.
Although it might be tempting to quickly plug your data into a spreadsheet, create a graph, print out the basic corresponding statistics, and celebrate your project as "finished," this methodology might lead you to miss relevant information. Instead, you should plan to spend a good chunk of time "playing" with your data. The more variables you test, the longer this "playing" takes. By looking at the data from various perspectives, trying different ways of organizing the data and representing it visually and mathematically, you might stumble upon connections or trends of which you were unaware when starting the project.
Lastly, it is always important to not just have your data stand alone, but to put it into context. Simply put, expressing your data relative to other data is much more enlightening. For example, the data in a study on the height of Japanese male professional basketball players might show that the average player height is 6 feet 5 inches. This data becomes more informative if you compare it to the average height of Japanese males, 5 feet 7 inches, thus allowing you to conclude that in Japan, basketball players are likely to be 14 percent taller than the average male. Similarly, if your research is a replicate of previous work or a methodological improvement on a process, it is critical to analyze your data in direct comparison with the previously published data.
Determining Standards in Your Field for Data Analysis
Every field has standards and norms for how to analyze data. Researchers, and others in the field who are reviewing your research, will expect you to be aware of and to emulate those standards where appropriate. That isn't to say they disapprove of new innovations or techniques&mdashjust be sure you're able to explain the advantages of your analytical methods over methods that are traditional to the field.
How do you conclude what the standard analytical techniques are in your field? The best way is to take a careful look at a wide range of papers in your field. Pay special attention to papers that are collecting the same types of data as you are. Make note of things like:
- How they organize their data,
- What types of trends they are seeing and how they are detecting those trends,
- Which statistical tests they use to evaluate the data, and
- What p values and/or confidence intervals are considered acceptable.
Once you're familiar with the types of analyses common to your field, you can pick and choose the ones that make the most sense in the context of your research project.
Three Different Ways to Examine Data
Generally speaking, scientific data analysis usually involves one or more of following three tasks:
- Generating tables,
- Converting data into graphs or other visual displays, and/or
- Using statistical tests.
Tabellen are used to organize data in one place. Relevant column and row headings facilitate finding information quickly. One of the greatest advantages of tables is that when data is organized, it can be easier to spot trends and anomalies. Another advantage is their versatility. Tables can be used to encapsulate either quantitative or qualitative data, or even a combination of the two. Data can be displayed in its raw form, or organized into data summaries with corresponding statistics.
Grafiken are a visual means of representing data. They allow complex data to be represented in a way that is easier to spot trends by eye. There are many different types of graphs, the most common of which can be reviewed in this basic guide to graphs: Data Analysis & Graphs.
You might think of graphs as the primary way to present your data to others although graphs sind excellent ways of doing that (see the Science Buddies guide about Data Presentation Tips for Advanced Science Competitions for more details), they're also a good analytical mechanism. The process of manipulating the data into different visual forms often draws your attention to different aspects of the data and expands your thinking about it. In the process, you may stumble upon a pattern or trend that suggests something new about your science project that you hadn't thought of before. Seeing your data in different graphical formats might highlight new conclusions, new questions, or the need to go and gather additional data. It can also help you to identify outliers. These are data points that appear to be inconsistent with the other data points. Outliers can be the results of experimental error, like a malfunctioning measurement tool, data-entry errors, or rare events that actually happened (like a 70°F day in January in Montana), but don't reflect what is normal. When statistically analyzing your data, it is important to identify outliers and deal with them (see the Bibliography, below, for articles discussing how to deal with outliers) so that they don't disproportionally affect your conclusions. Identifying outliers also allows you to go back and assess whether they reflect rare events and whether such events are informative to your overall scientific conclusions.
If you are unsure of what kinds of graphs might best encapsulate your data, go back to published scientific articles with similar types of data. Observe how the authors graph and represent their data. Try analyzing your data using the same methods.
Statistiken are the third general way of examining data. Often, statistical tests are used in some combination with tables and/or graphs. There are two broad categories of statistics: descriptive statistics and inferential statistics. Descriptive statistics are used to summarize the data and include things like average, range, standard deviation, and frequency. For a review of several basic descriptive statistical calculations consult the general guides to Summarizing Your Data and evaluating Variance & Standard Deviation. Inferential statistics rely on samples (the data you collect) to make inferences about a population. They're used to determine whether it is possible to draw general conclusions about a population, or predictions about the future based on your experimental data. Inferential statistics cover a wide variety of statistical concepts, such as: hypothesis testing, correlation, estimation, and modeling.
Beyond the basic descriptive statistics like mean, mode, and average, you might not have had much exposure to statistics. So how do you know what statistical tests to apply to your data? A good starting place is to refer back to published scientific articles in your field. The "Methods" sections of papers with similar types of data sets will discuss the statistical tests the authors used. Other tests might be referred to within data tables or figures. Try evaluating your data using similar tests. You might also find it useful to consult with statistical textbooks, math teachers, your science project mentor, and other science or engineering professionals. The Bibliography, below, also contains a list of resources for learning more about statistics and their applications.
Literaturverzeichnis
This paper provides a discussion of how to choose the correct statistical test:
- Windish, D.M. and Diener-West, M. (2006). A Clinician-Educator's Roadmap to Choosing and Interpreting Statistical Tests. Journal of General Internal Medicine 21 (6): 656-660. Retrieved August 25, 2009 from http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pubmed&pubmedid=16808753
These resources provide additional information on what to do with outliers:
- Fallon, A. and Spada, C. (1997). Detection and Accommodation of Outliers in Normally Distributed Data Sets. Retrieved August 25, 2009, from http://www.cee.vt.edu/ewr/environmental/teach/smprimer/outlier/outlier.html
- High, R. (2000). Dealing with 'Outliers': How to Maintain Your Data's Integrity. Retrieved January 13, 2011, from http://rfd.uoregon.edu/files/rfd/StatisticalResources/outl.txt
Additional information about statistics is available in these online statistics textbooks:
The Seven Key Steps of Data Analysis
The term “data scientist” evokes images of a single genius working alone, applying esoteric formulas to vast amounts of data in search of useful insights. But this is only one step of a process.
Data analysis is not a goal in itself the goal is to enable the business to make better decisions. Data scientists must build products that allow everyone in the organization to use data better, enabling data-driven decision making in every department and at every level.
The data value chain is captured in products that automatically collect, clean and analyze data, delivering information and predictions to executive dashboards or reports. Analysis runs automatically and continuously as new data arrives and the data scientists can work with the business on refining the models and improving prediction accuracy.
While each company creates data products specific to its own requirements and goals, some of steps in the value chain are consistent across organizations: