Astronomie

Reproduzieren und plotten Sie mich selbst aus einem Papier mit geeigneten Skripten und Fisher/Kovarianz-Matrizen

Reproduzieren und plotten Sie mich selbst aus einem Papier mit geeigneten Skripten und Fisher/Kovarianz-Matrizen


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Zx CK Ry yg jZ wR Rv Xv Ix CV Da te Ze

Ich möchte die folgende Abbildung reproduzieren und selbst plotten. Diese Handlung, auch wenn sie bis heute beginnt, ist für mich voller Informationen. Das Papier befindet sich hier: Papier Suzuki et al. 2011

Ich habe die 3 Hauptautoren der Zeitung kontaktiert (Suzuki et al. 2011), aber keiner hat mir eine Antwort gegeben.

Ich kenne Fisher-Formalismus und Python-Frameworks wie GetDist oder andere Tools, um diese Art von Diagramm zu generieren, aber ich habe nicht die Daten (Fisher- oder Kovarianz-Matrizen), die es ermöglichen, dieses Diagramm selbst zu reproduzieren. Es ist ziemlich frustrierend.

Wenn mir jemand helfen könnte, sie zu zeichnen, das heißt, um die Python-Skripte und die Fisher/Covariance-Matrizen zu verwenden, wäre ich dankbar, da ich anfing zu verzweifeln.

ps : andere ergänzende Abbildungen würden auch wie folgt wiedergegeben :


Reproduziere und zeichne mich selbst aus einem Papier mit geeigneten Skripten und Fisher/Kovarianz-Matrizen - Astronomie

Der Bestellvorgang beginnt mit dem Formular, in dem Sie die Art der Aufgabe, das akademische Niveau und die Frist angeben müssen. Bitte füllen Sie das Formular so detailliert und genau wie möglich aus.

Wenn wir weitere Details zu den von Ihnen benötigten Arbeiten benötigen, werden wir uns in Kürze mit Ihnen in Verbindung setzen

In diesem Schritt können Sie die Richtigkeit Ihrer Bestellinformationen überprüfen, den Rabattcode anwenden, den Endpreis überprüfen und mit der Zahlung fortfahren.

Sobald Sie die Rechnung bezahlt haben, senden wir Ihre Bestellung an den zuständigen und erfahrenen Autor, um den Schreibprozess zu starten

Nach Ablauf der Frist erhalten Sie den ausgefüllten Auftrag in Ihr Postfach und auch auf Ihr persönliches Konto.

Überprüfen und überprüfen Sie das Papier, das Sie erhalten, und wenn Sie Fragen haben - lassen Sie es uns wissen, wir freuen uns über jedes Feedback, das Sie uns geben


1. Einleitung

Das Karlsruher Tritium-Neutrino-Experiment KATRIN [1, 2] wird das erste Beta-Zerfall-Experiment sein, das versucht, die Elektron-Neutrino-Masse mit Sub-eV-Präzision zu messen. Derzeit wird das Experiment mit der Datenaufnahme 2013/14 in Auftrag gegeben und hat eine prognostizierte Empfindlichkeit von 0,2 eV (90% C.L.) für die Neutrinomasse.

KATRIN ist der Nachfolger der Experimente in Mainz [3] und Troizk [4] und wird einige der gleichen Techniken wie diese anwenden. Zu den technischen Details von KATRIN siehe z.B. [5] .

Streng genommen erhalten wir bei der Messung der 'Elektronen'-Neutrinomasse mit β-Zerfallsspektren die sogenannte kinematische Neutrinomasse. Das heißt, die inkohärente Summe der Neutrino-Masseneigenwerte, gewichtet durch die entsprechenden Einträge in der Leptonen-Mischmatrix:

Da jedoch bekannt ist, dass die Massenunterschiede zwischen den Massenzuständen der aktiven Neutrinos kleiner sind als die Empfindlichkeit von KATRIN, kann das Experiment effektiv nur einen Massenzustand sehen (die Differenzen zum Quadrat der Masse betragen mass m 2 12 = 8 × 10 − 5 eV 2 und Δ m 2 23 = |2,6 × 10 − 3 |eV 2 bzw. [6] ). Dieser Massenzustand wird manchmal als „Elektronen“-Neutrinomasse bezeichnet, aber im Prinzip könnte das Tritium-Beta-Spektrum die Signaturen von mehr als einem Massenzustand oder von Kopplungen an andere Teilchen vollständig enthalten. Um als wirklich modellunabhängig bezeichnet zu werden, sollten die endgültigen Daten von KATRIN auch für alternative Szenarien analysiert werden – über die minimale Erweiterung des Standardmodells hinaus.

Die Durchführung einer Analyse für nicht standardmäßige Kopplungen an das Elektron-Neutrino fügt der χ 2 -Funktion des Experiments mehr Parameterraum hinzu. Es sollte daher überlegt werden, wie eine erweiterte Analyse am KATRIN-Ausgang durchgeführt werden sollte, um zuverlässige Ergebnisse zu erhalten.

Wir stellen hier einen Ansatz vor, der mehrere Vorteile gegenüber der üblichen frequentistischen Analyse zu bieten scheint. In Abschnitt 2 beschreiben wir unsere Analysemethoden, bevor wir in Abschnitt 3 Ergebnisse für eine Reihe von Fällen präsentieren. Abschließend geben wir im letzten Abschnitt einige abschließende Bemerkungen.


Der Einfluss von Eigengruppen-Begünstigung auf das Selbstwertgefühl: Eine normative Perspektive ☆

Die vorliegende Studie untersucht den Einfluss von Eigengruppen-Favouritismus auf das Selbstwertgefühl. Nach der Selbstwerthypothese (Abrams & Hogg, 1988) sollte die Bevorzugung der Eigengruppe gegenüber einer Fremdgruppe zu einem höheren Selbstwertgefühl führen. Empirische Tests dieser Hypothese haben jedoch gemischte Ergebnisse ergeben. Angesichts der Heterogenität dieser Ergebnisse untersuchen wir die moderierende Rolle von Eigengruppennormen in Bezug auf Intergruppendiskriminierung. Gemäß dieser normativen Perspektive gehen wir davon aus, dass der Glaube, die Eigengruppe bevorzugt zu haben, das persönliche Selbstwertgefühl in dem Maße erhöht, dass ein solches Verhalten mit der Eigengruppennorm übereinstimmt. Drei Studien zeigten einen positiven Einfluss der wahrgenommenen Eigengruppen-Begünstigung (im Vergleich zu Intergruppen-Fairness) auf das persönliche Selbstwertgefühl, wenn die Eigengruppen-Norm diskriminierend war (Studien 1–3). Dieser Effekt verschwand jedoch, wenn die diskriminierende Eigengruppennorm abgeschwächt wurde (Studie 1) und kehrte sich sogar um, wenn die Eigengruppennorm eindeutig antidiskriminierend war (Studien 2–3). Darüber hinaus wurde diese Mäßigung hauptsächlich beobachtet, wenn die Eigengruppennormen injunktiv waren (anstatt deskriptiv, Studie 2) und bei Teilnehmern, die Konformität sehr schätzen (Studie 3). Diese Befunde werden im Hinblick auf das klassische Verständnis der Selbstwerthypothese diskutiert.


3. Datenverteilung

Die Daten für DR13 werden über die gleichen Mechanismen verteilt, die in DR12 verfügbar sind, mit einigen wesentlichen Änderungen an der Umgebung, die für den Zugriff auf die Katalogdaten verwendet wird (siehe unten). Rohe und verarbeitete Bild- und Spektroskopiedaten sind nach wie vor über den Science Archive Server (SAS, data.sdss.org/sas/dr13) sowie für Bilddaten, optische Spektren und APOGEE-IR-Spektren über eine interaktive Webanwendung verfügbar (dr13.sdss.org, bald verfügbar). Die Kataloge der photometrischen, spektroskopischen und abgeleiteten Größen sind über den Catalog Archive Server oder CAS (Thakar et al., 2008 Thakar, 2008) über zwei Hauptzugriffsarten verfügbar: Browserbasierte Abfragen der Datenbank sind über das SkyServer Web verfügbar Anwendung (http://skyserver.sdss.org) im synchronen Modus, und erweiterte und umfangreichere Abfragefunktionen sind über CasJobs (http://skyserver.sdss.org/casjobs) im asynchronen oder Batch-Modus verfügbar, was zeitaufwändige Abfragen, die im Hintergrund ausgeführt werden sollen (Li & Thakar, 2008) .

Das CAS ist jetzt Teil des neuen kollaborativen Wissenschaftsframeworks SciServer (http://www.sciserver.org/), das Benutzern den Single-Sign-On-Zugriff auf eine Reihe von kollaborativen datengesteuerten Wissenschaftsdiensten ermöglicht, die die klassischen SDSS-Dienste von SkyServer und CasJobs. Diese Dienste sind in ihren Benutzerschnittstellen im Wesentlichen unverändert, haben jedoch leistungsstarke neue Fähigkeiten erhalten und einer grundlegenden Überarbeitung unterzogen, um sie interoperabel und auf andere wissenschaftliche Bereiche anwendbar zu machen. Nach der Registrierung im SciServer-Portal stehen den Benutzern auch neue Dienste zur Verfügung, die nahtlos mit den bestehenden Tools zusammenarbeiten. Am bemerkenswertesten unter den neuen Angeboten sind SciDrive, ein verteilter DropBox-ähnlicher Dateispeicher SkyQuery, ein föderierter Cross-Matching-Dienst, der Daten aus einer Sammlung (Föderation) von Archiven mit mehreren Wellenlängen (SkyNodes) vergleicht und kombiniert, und SciServer Compute, ein leistungsstarkes neues System zum Hochladen komplexer Analyseskripte als Jupyter-Notebooks (mit Python, MatLab oder R), die in Docker-Containern ausgeführt werden.

Links zu all diesen Methoden finden Sie auf der SDSS-Website (http://www.sdss.org/dr13/data_access). Die Datenverarbeitungssoftware für APOGEE, BOSS und SEGUE ist öffentlich unter http://www.sdss verfügbar. org/dr13/software/produkte. Eine Reihe von Tutorial-Beispielen für den Zugriff auf SDSS-Daten finden Sie unter http://www.sdss.org/dr13/tutorials. Alle Flatfiles stehen unter http://data.sdss.org/datamodel/ zum Download bereit.


4 Lokale Fülle

Wir betrachten hier den Einfluss der Probenvarianz im Vergleich zu Schrotrauschen und kosmologischer Parameterdegeneration auf die Interpretation der lokalen Clusterhäufigkeit in der klassischen σ 8 − Ω m Ebene ( Evr89 1989 Freetal90 1990 HenArn91 1991 Lil92 1992 WhiEfsFre93 1993). Wir beginnen mit dem idealisierten Fall einer volumen- und temperaturbegrenzten Vermessung und betrachten dann den realistischeren Fall von Röntgenfluss, Volumen und Temperatur.

4.1 Volumenbegrenzte Umfrage

Beginnen wir mit einem Spielzeugmodell, um eine Intuition für die Auswirkungen der Stichprobenvarianz zu entwickeln. Betrachten Sie eine volumenbegrenzte lokale Vermessung mit einem Radius R, die alle Cluster oberhalb einer Grenzmasse M th erfasst, die durch eine Temperaturgrenze und die M − T X-Beziehung bestimmt wird.

Betrachten Sie zunächst das Binning der Cluster in ein einzelnes Massen-Bin M > M th . Es ist dann nur ein Fenster zu berücksichtigen und wir können die Stichproben- und Schrotrauschfehler bei der Anzahldichtebestimmung direkt vergleichen. Beachten Sie, dass die Stichprobenvarianz, die gleich der Schussvarianz ist, zu einer Zunahme der Fehler um √ 2 ≈ 1,4 führt.

In Abb. 4 zeigen wir die Stichproben- und Schussfehler für R = 100 , 200 , 300 h − 1 Mpc. Wie in § 2.2 angemerkt, skalieren im Bereich R = 100 h − 1 Mpc beide Fehler als V − 1 / 2 und wir haben diese Abhängigkeit durch Multiplikation mit ( R / 250 h − 1 Mpc) 3 / 2 entfernt. Das entsprechende Referenzvolumen beträgt 6,5 × 10 7 h − 3 Mpc 3 , vergleichbar mit dem Volumen tatsächlicher lokaler Erhebungen. Beachten Sie, dass sich die beiden Fehler bei M t h ≈ 4 × 10 14 h − 1 M ⊙ oder M t h / M ∗ ≈ 30 kreuzen, wobei die Stichprobenvarianz bei den niedrigeren Massen dominiert. Diese Kreuzung spiegelt hauptsächlich die exponentielle Unterdrückung der Zahlendichten für M t h / M ∗ ≫ 1 und damit den dramatischen Anstieg des Schrotrauschens wider. Für kleine Änderungen in Rotverschiebungen, Normalisierungen und Kosmologien bleiben diese qualitativen Aussagen wahr, erfordern jedoch eine Neuskalierung. Grob,

für Stichprobe, um die Schussvarianz zu dominieren, wobei Rückruf M ∗ f i d = 1,2 × 10 13 h − 1 M ⊙ ist. Für eine Kosmologie mit niedrigem Γ = Ω mh dominiert die Verstärkung der Stichprobenvarianz durch die überschüssige großskalige Leistung (bei typischen Skalen von R = 200 h − 1 Mpc) durch die Form des Leistungsspektrums und kann die Bedeutung der Stichprobenvarianz wesentlich erhöhen . In Verbindung mit 3 kann diese Skalierung als grobe Überprüfung verwendet werden, um zu bestimmen, ob die Stichprobenvarianz für ein gegebenes Problem relevant ist. Bei Erhebungen, die dieses begrenzende M th erreichen, dominiert die Stichprobenvarianz das Schrotrauschen in der Gesamtzahldichte und führt zu einer erheblichen Zunahme der statistischen Fehler.

Abbildung 4: Stichproben- vs. Schussfehler in Anzahl Zählungen als Funktion der Schwellenmasse für eine lokale Vermessung. Abtastfehler dominieren bei M < 30 M ∗ ≈ 4 × 10 14 h − 1 M ⊙ . Die Fehler wurden um ( R / 250 h − 1 Mpc ) 3 / 2 skaliert, um das lokale Volumen widerzuspiegeln, und die Übereinstimmung der Kurven zeigt, dass beide V − 1 / 2 skalieren. Ungefähre Ergebnisse für alternative Kosmologien oder Rotverschiebungen können durch die Skalierung mit M ∗ geschätzt werden (siehe Abb. 3 und Gl. ( 21 )).

Abbildung 5: Massenbereichsempfindlichkeit der Normierungsbestimmung für Vermessungen mit einer Volumengrenze von zmax und einer Massenschwelle von M = 10 14 h − 1 M ⊙ mit und ohne zusätzliche Röntgenflussgrenze von flim = 2 × 10 − 14 W m2. Nur bei Schrotrauschen erhält die Normierungsbeschränkung ihren signifikantesten Beitrag für 3 − 4 × 10 14 h − 1 M ⊙ ( ∼ 3 keV) für die Volumengrenze und 10 15 h − 1 M ⊙ ( ∼ 6 − 7 keV) für die zusätzliche Flussgrenze. Entsprechend sind für erstere Stichprobenfehler wesentlich wichtiger als für letztere, was auch die optimale Massengewichtung (durchgezogene vs. gestrichelte Linien) verändert.

Betrachten Sie nun eine Umfrage, die auch Massen einordnen kann, beispielsweise aus einzelnen Temperaturmessungen. Der relative Beitrag der Stichprobenvarianz hängt davon ab, welcher Massenbereich für die vorliegende Frage am relevantesten ist. Diese Sensibilität wiederum kann eine Funktion der Umfrageauswahl und der Kosmologie sein. Hier ist die Fisher-Matrix-Technik von § 2.3 nützlich, da sie diese Faktoren automatisch mit einer minimalen Varianzgewichtung einfügt.

Betrachten Sie als einfaches Beispiel die Schätzung eines einzelnen Parameters p α, wobei alle anderen durch Vorwissen festgelegt sind. Die minimale Varianzgewichtung der i Massenbins ist gegeben durch

Für eine diagonale Kovarianzmatrix wie im Fall von Schrotrauschen reduziert sich dies einfach auf eine inverse Varianzgewichtung von Massen-Bins.

Nehmen wir zur Veranschaulichung ein Volumenlimit von z = 0,09 ( R = 270 h − 1 Mpc) und eine Himmelsdurchmusterung. Wir klassifizieren die Massen von log ( M / h − 1 M ⊙ ) = 14 bis 16 in 40 Schritten von 0,05 . Die vorhergesagte Massenfunktion ist ausreichend glatt, dass dieses Binning mehr als ausreicht, um alle in ihrer Form enthaltenen Informationen wiederzugewinnen. Betrachten Sie den interessierenden Parameter als die Leistungsspektrumsnormierung δ ζ oder σ 8 . In Fig. 5 zeigen wir die Gewichte unter der Annahme nur des Schrotrauschens (gestrichelte Linien) und der Kovarianz von Schrot plus Stichprobe (durchgezogene Linien). Die Massenempfindlichkeit erreicht bei etwa 3 – 4 × 10 14 h – 1 M ⊙ für Schrotrauschen ihren Höhepunkt, was nur impliziert, dass die Einbeziehung von Abtastfehlern eine wesentliche Änderung des Fehlerbudgets bewirken würde. Tatsächlich ergibt die Fisher-Approximation eine Verschlechterung um den Faktor 2 bei den Fehlern bei or 8 oder der Stichprobenvarianz, die dreimal so wichtig ist wie die Schussvarianz. Andere Parameter, auch einzeln betrachtet (nicht marginalisiert), zeigen ähnliche Fehlerverschlechterungen. Beachten Sie, dass sich die optimale Gewichtung bei Vorhandensein von Stichprobenkovarianz zu höheren Massen verschiebt und aufgrund der Kovarianz der Klassen negative Beiträge haben kann, so dass eine Vernachlässigung der Stichprobenkovarianz in der Analyse die Fehler noch weiter verschlechtern kann.

Abbildung 6: σ 8 − Ω m Einschränkungen aus einer lokalen Röntgenfluss- und volumenbegrenzten Untersuchung bei 65 % CL ( z m a x = 0.09 , f l i m = 2 × 10 − 14 W m 2 ). Nicht schattierte Ellipsen bezeichnen Full Shot- und Sampling-Fehler, während schattierte Ellipsen nur Shot-Fehler bezeichnen. Äußere Ellipsen zeigen eine Marginalisierung gegenüber anderen Parametern (außer w) mit sehr schwachen Prioren, innere Ellipsen zeigen die nicht marginalisierten Beschränkungen. Die vier Sätze von M th entsprechen T X = 1.25 , 1.83 , 2.67 , 3.9 keV mit der Referenz M − T X Beziehung. Die drei höheren Auswahlmöglichkeiten von M th haben Ellipsen, die der Klarheit halber in Schritten von 0,2 in der y-Richtung verschoben sind. Der Effekt der Stichprobenvarianz nimmt mit zunehmender Parameterdegeneration und Massenschwelle ab.

4.2 Begrenzte Flussmittelprobe

Realistischer ist, dass die Probe lokaler Cluster röntgenfluss- sowie volumen- und temperaturbegrenzt sein wird, so dass Cluster mit geringer Masse nur in der Nähe gefunden werden. In diesem Fall verschiebt sich die Massenempfindlichkeit zu höheren Massen und die Probenvarianz wird weniger wichtig.

Nehmen wir zur Veranschaulichung eine Flussgrenze von flim = 2 × 10 − 14 W m − 2 zusätzlich zur Volumengrenze von z = 0,09 und einer Massenschwelle von M th = 10 14 h − 1 M ⊙ ( TX = 1,25 keV), Parameter, die für die aktuellen flussbegrenzten Proben von Clustern mit geschätzten Röntgentemperaturen typisch sind (zB Ikeetal01 2001). Die Massengewichtung für den Normierungsparameter erreicht jetzt Spitzenwerte bei 10 15 h − 1 M ⊙ oder Temperaturen um T X = 6 − 7 keV mit nur einem kleinen Unterschied, wenn die Probenvarianz mit der Schussvarianz eingeschlossen wird. Die Verschlechterung der Normierungsfehler wird folglich auf 20 % reduziert. Unterschiedliche Parameter haben unterschiedliche Empfindlichkeiten. Für den gewählten Parametersatz (siehe § 3.1 ) ist die relative Verschlechterung im flussbegrenzten Fall für Ω D E am größten, wo sie 40% erreicht. Somit kann selbst bei einer flussbegrenzten Erhebung die Stichprobenvarianz gleich der Schussvarianz in den statistischen Fehlern sein.

Die Gesamtbedeutung der Stichprobenvarianz kann aufgrund anderer Fehlerquellen bei der Schätzung, einschließlich Degenerationen der Parameter und Fehler bei der Massenschätzung, insbesondere bei niedrigen Massen oder Temperaturen, abnehmen. Um diese Effekte zu veranschaulichen, betrachten wir den üblichen zweidimensionalen Parameterraum σ 8 − Ω m, indem wir unseren Fundamentalraum wie in § 2.3 beschrieben transformieren. In Abb. 6 zeigen wir den Effekt der Stichprobenvarianz auf den 68% Konfidenzbereich in dieser Ebene für mehrere Auswahlen der minimalen Masse (oder Temperatur) in log ( M th / h − 1 M ⊙ ) der verwendeten Cluster, Offset für die höheren Mindestmassen der Übersichtlichkeit halber. Größere Ellipsen stellen eine Marginalisierung gegenüber anderen Parametern dar (mit sehr schwachen Prioren von b h 2 = 0,01 und σ n s = 0,3 hauptsächlich um unphysikalische Entartungen zu eliminieren) und kleinere Ellipsen repräsentieren nicht marginalisierte Beschränkungen oder vorherige Festlegungen der anderen Parameter. Beide Mengen haben einen Prior von σ w = 0, da die Dunkelenergie-Zustandsgleichung mit Ω m stark entartet ist.

Abbildung 7: Schuss- und Abtastfehler bei der Anzahldichte n als Funktion der Rotverschiebung für die tiefen ( M th = 10 14 h − 1 M ⊙ , 12 deg 2 ) und breiten Konfigurationen ( M th = 2.5 × 10 14 h − 1 M⊙, 4000 Grad 2 ). Bei der tiefen Vermessung dominieren die Stichprobenfehler die Schussfehler bis z ∼ 0.9 , während sie sich bei der weiten Vermessung bei z ∼ 0.2 − 0.3 kreuzen. Die Bedeutung der Stichprobenvarianz für kosmologische Beschränkungen hängt von ihrer Empfindlichkeit bezüglich der Rotverschiebung relativ zu diesen Kreuzungspunkten ab. Ungefähre Ergebnisse für andere interessierende Fälle können aus Abb. 3 und Gl. ( 21 ).

Es überrascht nicht, dass die Stichprobenvarianz irrelevant wird, wenn der Massenschwellenwert erhöht wird. Die Stichprobenvarianz nimmt auch an Bedeutung ab, wenn zwischen den fixierten und den marginalisierten Fällen aufgrund der Dominanz von Parameterdegenerationen in letzterem gewechselt wird. Für den Schwellenwert M t h = 10 14 h − 1 M ⊙ geht die Zunahme der Fehler auf Ω m von 40 % im festen Fall auf 30 % im marginalisierten Fall. Der Marginalisierungseffekt kommt hauptsächlich durch Parameter, die die Form des linearen Leistungsspektrums verändern. Realistische Strombeschränkungen für diese Parameter platzieren die Realität ungefähr in der Mitte zwischen den beiden Extremen, die in Abbildung 6 gezeigt sind. Beachten Sie schließlich, dass die Fehler in der Richtung orthogonal zur Entartungslinie mit der Addition der Stichprobenvarianz und der Schwellenmasse M th vernachlässigbar zunehmen. Da die lokale Clusterhäufigkeit normalerweise verwendet wird, um diese Richtung einzuschränken (vgl. Ikeetal01 2001 für die Verwendung der degenerierten Richtung), wird ihre kosmologische Interpretation im Wesentlichen nicht durch Stichprobenvarianz oder Unsicherheiten am Ende mit geringer Masse modifiziert.

Abbildung 8: Dark Energy Constraints (68% CL) für die (a) tiefen und (b) weiten Cluster-Surveys mit hoher Rotverschiebung. Die Felder von rechts nach links spiegeln das Hinzufügen von Priors aus dem Basissatz schwach konservativer Priors zum Hinzufügen einer lokalen Cluster-Häufigkeitsbeschränkung zum weiteren Hinzufügen von scharfen Priors zu allen anderen Parametern wider. Drei verschiedene maximale Rotverschiebungen werden mit und ohne Einbeziehung von Stichprobenvarianzfehlern gezeigt.


Auswirkungen und Herausforderungen

Wenn Bedingungen ernsthaft mit den Ursachen in Konflikt geraten, wie wir über das Gruppenverhalten nachdenken und es studieren, werden sie eine Reihe von Konsequenzen für diejenigen mit sich bringen, die zweckbestimmte Gruppen gründen, leiten und dienen. Drei, die ich besonders bedeutsam finde, werden als nächstes kurz diskutiert. Und dann, zum Abschluss des Beitrags, identifiziere ich drei einigermaßen entmutigende konzeptionelle und methodische Herausforderungen, die es zu bewältigen gilt, wenn ein bedingungsorientierter Ansatz zu einem brauchbaren Leitfaden für die wissenschaftliche Arbeit an Gruppen werden soll.

Handlungsimplikationen

Der allgemeine Imperativ für Praktiker eines bedingungsorientierten Ansatzes kann ganz einfach gesagt werden: Es gilt, strukturelle und organisatorische Bedingungen zu schaffen, die die Wahrscheinlichkeit erhöhen, dass eine Gruppe von Natur aus so agiert, dass die Erreichung von Gruppenzielen, die Lebensfähigkeit der Gruppe, gefördert wird als soziales System und das Lernen einzelner Mitglieder. Diese Aussage ist jedoch so allgemein, dass sie für die Praxis wenig brauchbar ist. Hier also drei etwas fokussiertere Handlungsimpulse, die meine Kollegen und ich bei der Umsetzung eines bedingungsorientierten Ansatzes für reale, in Echtzeit agierende Gruppen als hilfreich empfunden haben.

Führungsaufgaben neu priorisieren

Von den vielen unterschiedlichen Denkweisen über Führung entspricht das Funktionsmodell Führung am ehesten einer bedingungsorientierten Herangehensweise an Gruppen. Das Funktionsmodell geht davon aus, dass jeder, der einer Gruppe hilft, Funktionen zu erfüllen, die für die Erreichung ihrer Ziele entscheidend sind – sei es eine Person, die eine formelle Führungsrolle innehat, ein reguläres Gruppenmitglied oder sogar ein Außenstehender – die Gruppenleitung ausübt (Hackman & Wageman, 2005b McGrath 1962).

Unsere Forschung hat drei generische Führungsfunktionen identifiziert, die für zielgerichtete Gruppen von Bedeutung zu sein scheinen (Hackman, 2011a). Es wird nicht überraschen, dass die erste davon die Schaffung und Aufrechterhaltung der strukturellen und kontextuellen Bedingungen ist, die Hindernisse beseitigen und den Weg zur Erreichung der Ziele der Gruppe ebnen. Die zweite ist die Gründung der Gruppe – praktisch das Einhauchen einer bereits geschaffenen Grundstruktur. Und die dritte besteht darin, die Gruppe bei ihrer Arbeit zu coachen.

Lassen Sie mich auf Nummer sicher gehen und das Ausmaß dieser Effekte grob abschätzen. Ich schlage vor, dass 60 Prozent des Unterschieds, wie gut eine Gruppe letztendlich abschneidet, durch die Qualität der Bedingungen bestimmt werden Vor der Arbeit der Führer tut. Dreißig Prozent werden dadurch bestimmt, wie die anfängliche starten der Gruppe geht. Und nur 10 Prozent werden davon bestimmt, was der Anführer tut, nachdem die Gruppe bereits fertig ist unterwegs mit seiner Arbeit. Diese Ansicht steht im krassen Gegensatz zu populären Bildern von Gruppenführung – der Dirigent, der während einer musikalischen Darbietung einen Taktstock schwenkt, oder ein Sporttrainer, der während eines Spiels Anweisungen von der Seitenlinie ruft.

Der relativ geringe Prozentsatz, der von einem Teamleiter für praktische Aktivitäten zugewiesen wird, nachdem eine Gruppe im Gange ist, bedeutet nicht, dass Gruppenprozesse unwichtig sind. Im Gegenteil, wie eine Gruppe mit dem Management der Bemühungen der Mitglieder umgeht, wie sie ihre Leistungsstrategie entwickelt und umsetzt und wie sie das Wissen und die Fähigkeiten ihrer Mitglieder nutzt und entwickelt, sind enorm ausschlaggebend dafür, wie gut eine Gruppe letztendlich abschneidet. Coaching-Interventionen, die sich mit solchen Themen befassen, machen jedoch hauptsächlich am Rande einen Unterschied. Es ist eine angespannte Analogie, aber sobald eine Rakete von der Startrampe abgehoben ist, befindet sie sich auf einer weitgehend vorgegebenen Flugbahn. Diejenigen, die es entworfen und auf den Markt gebracht haben, können zu diesem Zeitpunkt nur noch kleine Korrekturen vornehmen oder, wenn es wirklich sauer wird, das Ganze in die Luft jagen. Bei einer Gruppe ist es ähnlich. Einmal im Gange, kann der Leiter Teamprozesse erleichtern, aber seinen Grundkurs nicht ändern, ohne das Team tatsächlich zu übernehmen, was natürlich zu seiner Zerstörung führen würde.

Fokus auf zeitliche Dynamik

Die Ergebnisse von Connie Gersick ( 1988 , 1989 ) haben die Gültigkeit der Stufenmodelle in Frage gestellt, die zuvor das Denken von Wissenschaftlern und Praktikern über die Entwicklung von Gruppen dominierten (Tuckman, 1965). Ihre Arbeit zeigte, dass die Mitglieder sehr bald nach der ersten Zusammenkunft auf eine „Schiene“ gelangen, die ihre Interaktion bis zur zeitlichen Mitte ihrer Arbeit prägt. Dann erleben sie einen großen Übergang, der in der Regel zu einigen grundlegenden Veränderungen in ihrer Arbeitsweise führt, und sie bleiben bis zum Ende ihrer Performance-Periode auf dieser neuen Spur.

Auf der Grundlage der Arbeit von Gersick entwickelten Ruth Wageman und ich ein Modell des Teamcoachings, das explizit die Arten von Coachingaktivitäten identifiziert, die zu drei Schlüsselzeitpunkten im Gruppenlebenszyklus wahrscheinlich am hilfreichsten sind: Anfänge (Motivationscoaching, um einem Team zu helfen) einen guten Start hinlegen), Mittelpunkte (beratendes Coaching, um einem Team zu helfen, die bisher Gelernten zu nutzen und seine Leistungsstrategie für die Zukunft zu überdenken) und Ende (Bildungscoaching, um dem Team zu helfen, aus seinen Erfahrungen zu lernen) (Hackman & Wageman, 2005a). Coaching bedeutet also nicht nur, einer Gruppe zu helfen, mit auftretenden Problemen und Chancen umzugehen. Stattdessen geht es darum, gezielt darauf zu achten, wo sich ein Team in seinem zeitlichen Lebenszyklus befindet – und dann die Art von Unterstützung zu leisten, die zu diesem bestimmten Zeitpunkt wahrscheinlich besonders hilfreich ist.

Wie bereits erwähnt, ist das, was ganz am Anfang des Lebens einer Gruppe passiert – wie sie ins Leben gerufen wird – von großer Bedeutung für das, was später passiert, und verdient daher besondere Aufmerksamkeit sowohl für die Leiter als auch für die Teammitglieder. Tatsächlich sind viele wichtige Führungsfunktionen zum Guten oder zum Schlechten erfüllt, wenn ein Team nur noch aus wenigen besteht Protokoll alt (Wageman, Fisher & Hackman, 2009). Das dringendste Geschäft, wenn ein Team zum ersten Mal zusammenkommt, besteht darin, sich aneinander und an den Zielen des Teams zu orientieren. Dies beinhaltet die Festlegung der Grenze, die Mitglieder von Nichtmitgliedern unterscheidet, beginnt, Rollen zu differenzieren und Normen über das Gruppenverhalten zu formulieren und sich mit der Arbeit des Teams zu beschäftigen (Ginnett, 1993). Wenn dies gut gemacht wird, befindet sich das Team wahrscheinlich auf einem besseren anfänglichen Weg, als es sonst der Fall wäre. Und auf einem guten Weg zu sein, verringert sowohl die Wahrscheinlichkeit, dass eine Gruppe auf handlungsunfähige Probleme stößt, als auch die Wahrscheinlichkeit, dass Mitglieder, die auf schwierige Stellen stoßen, Wege finden, diese zu überwinden.

Halte die Dinge einfach

Wir haben gesehen, dass bei einem bedingungsorientierten Ansatz die Bildung und Führung von Gruppen entschieden im Vordergrund steht: Die Entscheidungen und Handlungen, die den größten Unterschied machen, sind diejenigen, die bereits vor der Zusammenkunft einer Gruppe und ganz am Anfang ihres Lebens getroffen werden. Vielleicht, weil sie alles in ihrer Macht Stehende tun wollen, um einer Gruppe zum Erfolg zu verhelfen, sind Führungskräfte manchmal versucht, die Gruppe überzugestalten und während des Startprozesses übermäßig detaillierte Anleitungen zu geben.

Forschungen in der Tradition soziotechnischer Systeme legen nahe, dass es ratsam ist, dieser Versuchung zu widerstehen und sich stattdessen an das Prinzip der minimale kritische Spezifikation. Dieses Prinzip besagt, dass man nur die wenigen Gestaltungsmerkmale festlegen sollte, die unbedingt notwendig sind, und den Gruppenmitgliedern damit viel Spielraum lässt, ihren eigenen Kurs zu bestimmen (Cherns, 1976, Herbst, 1974). Durch einfaches Design und einfaches Starten einer Gruppe können die Gefahren des Kontingenzdenkens vermieden werden – das heißt, immer mehr Unterscheidungen treffen und immer mehr Bedingungen und Qualifikationen zu allgemeinen Aussagen hinzufügen. Die einmal begonnene Suche nach Eventualitäten erreicht bald den Punkt sinkender Renditen, da die Zunahme der Erklärungskraft langsamer erfolgt als die Zunahme der Modellkomplexität. Und wie bereits erwähnt, sind Menschen nicht in der Lage, mehrere Eventualitäten zu verarbeiten, um Entscheidungen darüber zu treffen, wie sie einer Gruppe am besten helfen können.

Konzeptionelle Herausforderungen

Wenn man sich die drei gerade besprochenen Verhaltensimperative zu Herzen nimmt, wären einige nicht triviale Verhaltensänderungen derjenigen erforderlich, die in zielgerichteten Gruppen strukturieren, führen oder dienen. Aber diese Veränderungen verblassen im Vergleich zu dem, was ein bedingungsorientierter Ansatz von denen von uns verlangen würde, die Gruppen studieren und Theorien darüber aufstellen. Hier sind drei wissenschaftliche Herausforderungen, die ich als besonders entmutigend empfinde.

Kampf mit Überbestimmung

Einer der Vorteile traditioneller Ursache-Wirkungs-Modelle besteht darin, dass sie davon ausgehen, dass kausale Faktoren konzeptionell und methodisch isoliert und das Ausmaß ihrer Auswirkungen bewertet werden können. Das Problem ist, dass das, was in Gruppen passiert, normalerweise überbestimmt ist. Es ist nicht ein einzelner Faktor oder auch nur eine lineare Kombination von Faktoren, die das Geschehen bestimmen. Stattdessen neigen zahlreiche Merkmale der Gruppenstruktur, ihres Kontexts, ihrer Führung und sogar des Verhaltens ihrer Mitglieder dazu, im Laufe der Zeit in Übereinstimmung zu kommen – manchmal auf eine Weise, die die Lebensfähigkeit einer Gruppe fördert, manchmal aber auf eine Weise, die gegen Teamarbeit (Walton, 1985 Walton & Hackman, 1986).

Einflüsse auf Gruppenverhalten und Leistung kommen nicht in separaten, unterscheidbaren Paketen. Sie treten stattdessen in komplexen Gewirr redundanter Merkmale und Kräfte auf. Der Versuch, die kausalen Wirkungen jeder Komponente aufzuteilen und zu bewerten, kann frustrierend sein, da jede Zutat eines möglicherweise würzigen Eintopfs ihre Würze verliert, wenn sie getrennt von den anderen untersucht wird. Die Tatsache, dass Gruppenverhalten und -leistungen überbestimmt sind, d. h. dass sie Produkte mehrerer, nicht unabhängiger Faktoren sind, deren Einfluss teilweise davon abhängt, dass sie sind redundant – bedeutet, dass wir neue Wege finden müssen, um Gruppenphänomene zu konstruieren und zu erforschen. Selbst unsere leistungsstärksten multivariaten Modelle können bei der Klärung der Dinge nicht viel helfen, da ihre Annahmen unter solchen Umständen so stark verletzt werden können. Welche alternativen analytischen Ansätze können wir entwickeln, die besser mit der Realität übereinstimmen, dass das Gruppenverhalten von multiplen, redundanten und nicht unabhängigen Bedingungen geprägt ist?

Umgang mit Emergenz und Äquifinalität

Zwei Konzepte aus der Systemtheorie – Emergenz und Äquifinalität – sind entscheidend für jeden bedingungsorientierten Ansatz, um das Verhalten und die Leistung von Gruppen zu verstehen.

Entstehung

Einige Konzepte auf Gruppenebene, wie Größe, existieren nur auf kollektiver Ebene hat die Gruppengröße keine Bedeutung für einzelne Individuen. Andere Konzepte beschreiben Phänomene, die entstehen aus ihren Komponenten, aber das kann von ihnen nicht erklärt werden. Betrachten Sie zur Veranschaulichung den Geruch, der eine Eigenschaft bestimmter Moleküle ist. Moleküle können riechen, aber Atome, aus denen Moleküle bestehen, können das nicht. Ein weiteres Beispiel ist der Geist, der aus der Biologie komplexer Tiere hervorgeht. Ein weiterer ist der Gruppengeist, der aus den Interaktionen zwischen den einzelnen Gruppenmitgliedern entsteht. In jedem dieser Fälle ist der Emergenzprozess rechtmäßig, aber die Dynamik des Emergenzphänomens kann nicht allein anhand der Eigenschaften ihrer Komponenten erklärt werden. Emergente Phänomene müssen in ihren eigenen Begriffen und auf ihren eigenen Ebenen untersucht werden. Dafür müssen wir analytisch Wege finden, die dem emergenten, selbstorganisierenden Charakter der Gruppenphänomene, die wir verstehen wollen, angemessen Rechnung tragen.

Gleichgültigkeit

Es gibt viele verschiedene Möglichkeiten für eine Gruppe, ihre Ziele zu erreichen und dennoch zu erreichen, und wahrscheinlich gibt es noch mehr Möglichkeiten, ihren Weg zum Scheitern zu finden. Systemtheoretiker nennen diesen Aspekt des organisierten Unterfangens „Gleichgültigkeit“ (Katz & Kahn, 1978, S. 30). Nach dem Prinzip der Äquifinalität kann ein soziales System aus verschiedenen Ausgangsbedingungen und auf verschiedene Weise zum gleichen Ergebnis kommen. In Übereinstimmung mit der Position, die ich in diesem Papier eingenommen habe, haben Gruppen, für die die entsprechenden Bedingungen vorhanden sind, genügend Spielraum, um ihre eigenen idiosynkratischen Vorgehensweisen zu entwickeln und umzusetzen. Es gibt weder die eine richtige oder beste Vorgehensweise, noch gibt es eine einzige Ursache für das, was im Leben einer Gruppe passiert. Selbst Gruppen mit sehr ähnlichen Ausgangsbedingungen können ganz unterschiedlich agieren und dennoch gleichwertige Ergebnisse erzielen.

Wie bei der Emergenz stellt sich für Wissenschaftler die Frage, wie konzeptionelle und analytische Modelle angemessen und informativ entwickelt werden können, die es uns ermöglichen, mehr darüber zu erfahren, wie Äquifinalität in Gruppen funktioniert. Ohne Frage sind Konzepte wie Emergenz und Äquifinalität beim Basteln hilfreich post hoc Erklärungen, was in einer Gruppe passiert ist, die uns interessiert. Es bleibt jedoch unklar, wie diese leistungsstarken systemtheoretischen Konzepte verwendet werden können, um Echtzeit- (geschweige denn prädiktive) Analysen der Gruppendynamik durchzuführen. Wenn ein bedingungsorientierter Ansatz nützlich sein soll, um Gruppen zu verstehen oder mit ihnen zu intervenieren, müssen wir einen Weg finden, diese Konzepte analytisch zu verstehen.

Einklammern von Phänomenen auf Gruppenebene

Es ist allgemein anerkannt, dass ein solides Verständnis von Gruppenverhalten und -leistung sowohl die individuelle Analyseebene (z. B. die Attribute der Mitglieder) als auch die kontextuelle Ebene (z. B. die Attribute des organisatorischen oder kulturellen Kontexts, in dem die Gruppe tätig ist) berücksichtigen muss. . Die Herausforderung besteht darin, mit ebenenübergreifenden Einflüssen so umzugehen, dass sie als Teil der tatsächlichen Phänomene des Gruppenlebens behandelt werden und nicht als Elemente einer ständig wachsenden Liste potenzieller Moderatoren.

Das Einklammern von Phänomenen auf Gruppenebene mit Konzepten von einer Ebene „oben“ und einer Ebene „unten“ ist leichter zu befürworten als auszuführen. Wie entscheidet man, welche Konstrukte auf den höheren und niedrigeren Analyseebenen bewertet werden sollen? Sicherlich lassen sich Erklärungen des Gruppenverhaltens wesentlich bereichern, wenn man sich mit Faktoren auf Analyseebenen befasst, auf denen Soziologen und Psychologen bereits viele konzeptionelle und empirische Arbeiten durchgeführt haben. Doch welche soziologischen oder psychologischen Konstrukte sollten in Klammeranalysen verwendet werden? Die Literatur der Organisationssoziologie ist gefüllt mit Konstrukten, die sich mit den Eigenschaften von Bürokratien, Netzwerkprozessen, Autoritäts- und Statusstrukturen, Schichtung, Mobilitätsregimen und mehr beschäftigen. Die Literatur der Individualpsychologie enthält eine Fülle von Konstrukten über die menschliche Persönlichkeit, Fähigkeiten und Fähigkeiten, Einstellungen und Überzeugungen, kognitive Skripte und Schemata und mehr. Soziologen und Psychologen haben diese Konstrukte entwickelt, um einige der zentralen Fragen ihres Fachgebiets zu beantworten. Es wäre in der Tat überraschend, wenn sich herausstellen würde, dass sie genau das sind, was man braucht, um gute Erklärungen für das Gruppenverhalten zu generieren.

Was ist also die Alternative zum Import von intakten Konstrukten aus angrenzenden Studienrichtungen? Meine bevorzugte Strategie ist das, was ich „informierte Induktion“ nenne. Dabei werden alle erfassbaren Informationen – qualitative und archivierte Daten sowie quantitative Messgrößen – herangezogen, um die Strukturen und Prozesse auf benachbarten Ebenen zu identifizieren, die das interessierende Phänomen auf Gruppenebene am wahrscheinlichsten prägen oder von ihm geprägt werden. Eine informierte Einführung kann eine ziemliche Herausforderung darstellen, da sie den Einsatz von Forschungsstrategien und -fähigkeiten erfordert, mit denen man möglicherweise nicht vertraut oder sich unwohl fühlt. Um sich ebenso intensiv mit substanziellen Phänomenen wie mit seinen abstrakten Konzepten und Variablen zu befassen, bedarf es sowohl des persönlichen Eintauchens in das Forschungsumfeld als auch feiner Fähigkeiten in der induktiven Konzeptualisierung.

Induktiv entwickelte Konstrukte können sich natürlich als eine schlechte Wahl erweisen, die in einem bestimmten Fall wenig zweckdienlich sind, um das Verständnis zu bereichern. Aber selbst dann wird man mit ziemlicher Sicherheit mehr gelernt haben, als wenn man nur auf die individuelle Ebene herunterfällt, um ein Maß für die Big Five-Persönlichkeitsdimensionen von der Stange zu nehmen oder in der Soziologieliteratur vorbeizuschauen, um einige Standards zu sammeln Maße von Netzwerkeigenschaften. Die Verwendung einer informierten Induktion zur Identifizierung funktional signifikanter Konstrukte auf benachbarten Analyseebenen soll den Prozess des Bootstrappings zu immer besseren Erklärungen von Gruppenphänomenen beginnen.

Fazit

Da sich immer mehr neue Formen von Gruppen ausbreiten, könnte es ein günstiger Zeitpunkt sein, zu überdenken, wie wir sie konzeptualisieren, analysieren und mit ihnen arbeiten. Wir können jetzt nichts über die Eigenschaften neuer Arten von Gruppen wissen, die eines Tages erscheinen werden. Wir können auch nicht im Voraus wissen, was wir tun müssen, um die Dynamik dieser Gruppen zu verstehen. Doch schon jetzt gibt es Anzeichen dafür, dass wir an der Schwelle zu einem Paradigmenwechsel stehen, wie wir Gruppen konzeptualisieren, wie wir sie untersuchen und wie wir ihnen helfen, ihre Ziele zu erreichen – die Beine des Dreiecks, mit dem ich begann dieses Papier. Ich hoffe, dass die Verlagerung unseres Fokus von Versuchen, die Ursachen von Gruppenverhalten und -leistung zu lokalisieren, hin zu Analysen der Bedingungen, unter denen Gruppen ihre eigenen Kurse bestimmen, in bescheidener Weise zur Entwicklung jedes neuen Paradigmas beitragen kann, das schließlich auftaucht.

Danksagung

Teile dieses Artikels basieren auf Hackman ( 1985 ), Hackman ( 1987 ), Hackman ( 2003 ), Hackman ( 2011a , b), Hackman & Katz ( 2010 ) und Wageman, Fisher & Hackman ( 2009 ) oder wurden von diesen adaptiert.


Reproduziere und zeichne mich selbst aus einem Papier mit geeigneten Skripten und Fisher/Kovarianz-Matrizen - Astronomie

Die Mischfrequenz-Regression untersucht die Erklärungskraft von hochfrequenten Variablen auf das niederfrequente Ergebnis. Die mit Hochfrequenz-Regressoren verbundenen Gewichtungen werden normalerweise in einer funktionalen Form angenommen. Diese Toolbox ist ein Repack der Mi(xed) Da(ta) S(ampling) Regressions (MIDAS) Programme von Eric Ghysels. Es unterstützt Regressionen vom Typ ADL-MIDAS. Das Paket enthält außerdem zwei Funktionen für die GARCH-MIDAS- und DCC-MIDAS-Schätzung. Einzelheiten finden Sie in der beiliegenden Bedienungsanleitung.
Syntax:
[. ] = MIDAS_ADL(DataY,DataYdate,DataX,DataXdate)
[. ] = MIDAS_ADL(DataY,DataYdate,DataX,DataXdate,Name,Wert. )
[. ] = GarchMidas(y, name,wert. )
[. ] = DccMidas(Daten, Name, Wert. )

Kommentare und Bewertungen ( 461 )

Lieber Armando,
Bitte schön. Ja, das ist richtig. Der Zeitraum beträgt 3 für die gemischtfrequenten Daten von Monat und Quartal.

Vielen Dank Hang, für Ihre prompte Antwort. Ich werde dann einer Kreuzvalidierungsmethode folgen, wie Sie vorgeschlagen haben. Noch eine letzte Klarstellung zu MidasQuantile(). Ich verstehe, dass zum Beispiel in einer Regression, bei der die Variable dep vierteljährlich/monatlich und der Regressor täglich ist, die 'Periode' 66 bzw. 33 beträgt.Liege ich daher richtig, wenn ich sage, dass, wenn die Variable dep vierteljährlich und der Regressor monatlich ist, 'Periode' = 3 ist, da 3 Monate ein Quartal ergeben?

Vielen dank für Deine Hilfe.

Lieber Armando,
Die Zielfunktion einer Quantilregression ist eine asymmetrische Verlustfunktion wie fval = loss' * (q - (loss<0)). Die Log-Likelihood wird bei der Parameterschätzung nicht berechnet. Sie können die Kreuzvalidierung als Möglichkeit betrachten, die Anzahl der Verzögerungen auszuwählen. Ein Modell ist gut, wenn es neue Daten gut vorhersagt.

Liebe Marwa,
Wenn die Kovarianzmatrix des Schätzers nicht invertierbar ist, liegt der wahrscheinlichste Grund darin, dass das numerische Optimierungsprogramm nicht zu einem lokalen optimalen Punkt konvergiert und die entsprechende Hesse-Matrix nicht negativ definit ist. Es gibt keine gute Lösung, aber Sie können eine andere Einstellung der Optimierungsoption in Betracht ziehen. Das Programm verfügt über ein Name-Wert-Argument 'Options' zum Anpassen der FMINCON-Optionen für die numerische Optimierung. Vielleicht könnte auch das Zurücksetzen der Namen-Wert-Argumente 'LogTau' oder 'ThetaM' helfen.

Ich verwende die Funktion MidasQuantile(). Ich versuche, die optimale Anzahl von Lags zu schätzen. Normalerweise würde ich aicbic() verwenden, aber MidasQuantile() zeigt LogL nicht an. Was würdest du vorschlagen? Vielen Dank!

Lieber Hang,
Vielen Dank, dass Sie sich die Zeit genommen haben, unsere Fragen zu beantworten :)
Wie kann ich dieses Problem bei der Schätzung des GARCH-MIDAS-Regressor-Modells lösen?
gerade wegen der Inversionsschwierigkeit. >?

Liebe Marwa,
Die Periodizität der Aggregation von Tag zu Monat ist nicht regelmäßig, aber es ist vernünftig, von 22 Werktagen in einem Monat auszugehen. Die Anzahl der Verzögerungen kann durch einige Informationskriterien basierend auf der Log-Wahrscheinlichkeit und der Anzahl von Parametern bestimmt werden. Wenn die Volatilitätsdarstellung eine gerade Linie ist, ist es wahrscheinlich, dass die Modellspezifikation für die Daten nicht geeignet ist. Ziehen Sie alternative Modellspezifikationen oder Daten in Betracht.

Hallo Chaofei,
Die Warnmeldung weist darauf hin, dass der von der Software generierte Standardanfangswert für den Datensatz oder das Modell nicht gut funktioniert. Ziehen Sie in Erwägung, einige der Name-Wert-Argumente wie 'Mu0', 'Alpha0', 'Beta0', 'Theta0', 'W0', 'M0' usw. zurückzusetzen.

Lieber Hang,
Frage 1: Wie wählt man den Zeitraum und die 'NumLags' bei der Schätzung des GARCH-MIDAS? (Meine täglichen und monatlichen Daten reichen von 01/2005 bis 05/2021)
Frage 2: Warum erhalte ich bei der Darstellung der gesamten und der säkularen Volatilität eine gerade Linie für die säkulare Volatilität?
Vielen Dank!

Hallo Hang,
Wenn ich das Programm GARCHMIDAS verwende, erscheint die Meldung "Warnung: FMINCON fehlgeschlagen. Wechseln Sie zu FMINSEARCH. Fehlermeldung: Zielfunktion ist am Anfang nicht definiert. Fmincon kann nicht fortgesetzt werden." Dann wird beim Aufruf der fminearch-Funktion darauf hingewiesen, dass die maximale Anzahl der Funktionsberechnungen überschritten wurde und der aktuelle Funktionswert: Inf. Egal wie groß ich MaxFunEvals erhöhe, der endgültige Funktionswert ist Inf. Wie kann man das lösen? Vielen Dank.

Hallo Yizhou,
Das Programm arbeitet mit einer hochfrequenten Variablen, und Sie können Prognosekombinationen in Betracht ziehen, wenn Sie mehrere Reihen haben. Meines Wissens hat das in Eviews implementierte MIDAS-Modell multivariate Unterstützung.

Ich entschuldige mich, falls das schon woanders gefragt wurde. Erlauben Sie multivariates DataX mit der gleichen hohen Frequenz? Ich habe versucht, das zu erreichen, aber es funktioniert nicht.

Liebe Emilia,
Die Spezifikation der Polynome bestimmt, wie die Likelihood-Funktion berechnet wird. Im GarchMidas-Programm wird die Likelihood-Funktion durch die lokale Funktion fML(…) berechnet, in der eine Funktion midasBetaWeights(…) die MIDAS-Gewichte des Beta-Polynoms berechnet. Wenn Sie eine benutzerdefinierte Polynomfunktion angeben möchten, können Sie diese Funktion anpassen (in Zeile 405):
Gewichte = midasBetaWeights(nlag,param1,…)

Hallo Hang,
Vielen Dank. Ich weiß, dass ich Beta2Para auf true setzen müsste. Ich bin mir jedoch nicht sicher, wie ich den GARCH-Midas-Code (Unterfunktion MIDAS beta polynomial weights) anpassen muss, damit w1 = 1 ist. Da ich leider kein Coder bin, bin ich mir nicht sicher, wie das geht. Ich würde Ihre Hilfe sehr schätzen! Ich denke, wenn man w1 auf 1 setzt (2. Gleichung), würde die erste Hälfte des Beta-Polynoms in 1 aufgelöst, aber der zweite Teil ähnelt nicht der ersten Beta-Polynom-Gleichung, da es kein 1 minus enthält.

Liebe Emilia,
Das Programm GarchMidas hat ein Name-Wert-Argument Beta2Para, das ein oder zwei Parameter Beta-Polynome angibt, Sie können es zurücksetzen.

Lieber Hang,
vielen Dank für deine Antwort! Entschuldigung, ich habe vergessen zu schreiben, dass ich es für das univariate GARCH-Midas-Modell brauche. Mir ist aufgefallen, dass in Erik Ghysels Papier 'Aktienmarktvolatilität und makroökonomische Fundamentaldaten' S.784 geschrieben steht, dass optimal w1=1 ist und dann nur w2 gemeldet wird. Ich würde Ihre Hilfe in Bezug auf dieses Problem / die Parameterspezifikation sehr schätzen, da ich diese spezifischen Berechnungen so schnell wie möglich durchführen muss.

Liebe Erin,
Das Programm geht von einer gleichmäßigen zeitlichen Aggregation aus. Das heißt, wir gehen davon aus, dass jeder Monat 30 Tage hat, nicht unbedingt die Kalenderdaten. Der Code funktioniert, wenn Ihre Daten gleichmäßig verteilt sind, funktioniert jedoch möglicherweise nicht gut, wenn ein Monat verschiedene Tage hat. Erwägen Sie, Ihre Daten/Daten ähnlich den Beispieldateien, die mit der Toolbox geliefert werden, neu zu formatieren.

Lieber Hang Qian,
Ich habe tägliche Daten (täglich, einschließlich Wochenende) und monatliche Daten verwendet, also habe ich Period auf 30 gesetzt. Aber wenn es um den dritten Schritt geht (Wiederhole den monatlichen Wert über die Tage in diesem Monat), zeigte sich, dass "Index die Zahl überschreitet". von Array-Elementen (0).' Ich habe die Nummer von Periode geändert, aber es funktioniert immer noch nicht. Darf ich fragen, was mit meinem Schritt nicht stimmt?
Schöne Grüße!

Liebe Emilia,
Wenn Sie das Programm MIDAS_ADL verwenden, können Sie die Zeile 474 von
Ergebnisse = bnls_adl_new(y,x,numofparams,output_type,polyconstr)
wobei numofparams = 1 einen Schätzer mit dem einparametrigen Beta-Polynom liefert.

Ich muss die Beta-Polynome Gl. 5b Gewichtung verwenden und w1 auf 1 fixieren. Könnten Sie mir bitte bei dieser Frage helfen. Vielen Dank im Voraus!

Vielen Dank für Ihre Antwort, ich bin so dankbar

Professor Ghysels beantwortet freundlicherweise einige unserer Fragen:

20. Februar: Lieber Hang Qian, bitte helft mir, ob der Code von Midas cointegrated var I(2) in Matlab existiert
Danke

Antwort: Es könnte sich lohnen, bei Thomas Götz von der Deutschen Bundesbank nachzufragen, der mehrere Artikel zu Kointegration und MIDAS verfasst hat

8. Dezember 2020: Lieber Hang Qian,
Vielen Dank für Ihren Anteil. Ich habe eine Frage. Ich frage mich, ob ADL-MIDAS, GARCH-MIDAS und das DCC-MIDAS-Modell für die Querschnittsanalyse verwendet werden können. Danke.

Es könnte sich lohnen, auf das Papier zu verweisen, das den Querschnitt von MIDAS behandelt:

Ball, Ryan T., Lindsey Gallo und Eric Ghysels. "Die Beweise kippen: Die Rolle der Einkommensattribute auf Unternehmensebene in der Beziehung zwischen aggregierten Einkommen und Bruttoinlandsprodukt." Review of Accounting Studies 24.2 (2019): 570-592.

10. September: Lieber Hang Qian,
Vielen Dank für Ihren Anteil. Ich habe viel Literatur über MIDAS gelesen und festgestellt, dass die meisten nur das Präduktionsergebnis und nicht das Regressionsergebnis (die Bedeutung jedes Parameters) lieferten. Bedeutet dies, dass das Regressionsergebnis nicht wichtig ist und das Vorhersageergebnis nicht beeinflusst?
Ich bin wirklich verwirrt darüber.
Vielen Dank.
Cheng

Antwort: Die jüngste Arbeit von Babii, Ghysels und Striaukas stellt MIDAS-Regressionsmodelle für maschinelles Lernen vor, die regularisierte Regressionen mit Sparse-Group-LASSO mit formalem Hypothesentest beinhalten. Sehen:

Babii, Andrii, Eric Ghysels und Jonas Striaukas. "Maschinelles Lernen von Zeitreihenregressionen mit einer Anwendung auf Nowcasting." Erhältlich unter SSRN 3503191 (2019). (erscheint Journal of Business and Economic Statistics)

Babii, Andrii, Eric Ghysels und Jonas Striaukas. "Inferenz für hochdimensionale Regressionen mit Heteroskedastizität und Autokorrelation." Erhältlich unter SSRN 3615718 (2020).

Babii, Andrii, Eric Ghysels und Jonas Striaukas. "Hochdimensionale Granger-Kausalitätstests mit einer Anwendung auf VIX und News." (2021).

Liebe Meriem,
Ich wünsche Ihnen viel Erfolg bei der Entwicklung kointegrierter MIDAS, die eine vielversprechende Forschungsrichtung zu sein scheint.

Lieber Hang Qian, bitte hilf mir
Existiert der Code von midas cointegrated var I(2) in Matlab?
Danke

Lieber Hang Qian,
Vielen Dank für Ihre prompte Antwort.

Liebe Ahamuefula,
Wenn wir die Log-Likelihood unter verschiedenen Lag-Ordnungen vergleichen und die optimale Lag-Ordnung anhand einiger Informationskriterien bestimmen, müssen wir die Anzahl der bei der Parameterschätzung verwendeten Beobachtungen festlegen. Andernfalls ist die Log-Likelihood für die Spezifikation NumLag = 1 wahrscheinlich am kleinsten. Wenn wir die Anzahl der Lags erhöhen, reservieren wir mehr Datenpunkte für die Pre-Sample-Daten, sodass sich die Anzahl der Datenpunkte im Schätzfenster entsprechend verringert. Ich hoffe es hilft.

Lieber Hang Qian
Ich möchte die optimalen numLags bestimmen, die in mein GARCH-MIDAS-Modell integriert werden sollen. Ich habe den Ansatz gewählt, das Modell mit verschiedenen numLags von 1 bis 40 zu schätzen und dann Loglikelihood-, AIC- und BIC-Werte bei jedem angegebenen NumLag zu beobachten. Alle zeigten auf 1. Was bedeutet dies? Bedeutet das, dass ich nur 1 Verzögerung benötige, um die säkulare Komponente nach MIDAS-Gewichten zu filtern? Bitte helfen Sie mir. Was ist die geeignete Numlag-Spezifikation für eine Tag-Monat-GARCH-MIDAS-Schätzung?

Liebe 黄,
Ich denke, die MIDAS-Toolbox ist für die Zeitreihenanalyse von Daten konzipiert, die mit unterschiedlichen Frequenzen abgetastet wurden. Es wäre kreative Arbeit, wenn Sie die Methode für die Querschnittsdatenanalyse anpassen.

Lieber Hang Qian,
Vielen Dank für Ihren Anteil. Ich habe eine Frage. Ich frage mich, ob ADL-MIDAS, GARCH-MIDAS und das DCC-MIDAS-Modell für die Querschnittsanalyse verwendet werden können. Danke.

Lieber Carlos,
Ja, das ist richtig.

Lieber Hang Qian, vielen Dank für Ihre Antworten, können Sie mir eine Frage beantworten, ich habe die Ergebnisse der "Likelihood-Funktion" aus der Datei "nlh_garchmidas.m" von Engle und die Log-Wahrscheinlichkeit aus Ihrer Datei verglichen "garchmidas.m", beide liefern sehr ähnliche Ergebnisse, aber nicht genau gleich, ist das richtig? Schöne Grüße.

Lieber Carlos,
Das "myfun" in der "garchmidas.m" ist ein Funktions-Handle, das an das numerische Optimierungspaket gesendet wird. Die Funktion verwendet die Modellparameter als Eingaben und gibt die diesen Parametern entsprechende negative Log-Likelihood-Funktion zurück. Durch Minimieren der Zielfunktion erhalten wir den Maximum-Likelihood-Schätzer.

Lieber Huang Qian, vielen Dank für Ihre Antworten, was ist die Minimierungsfunktion "myfun" mit Zeile 297 in der Datei "garchmidas.m"? Was versucht es zu minimieren? Ich meine in aller Kürze? Ich verstehe den Code einfach nicht :(

Lieber Carlos,
Die GarchMidas-Funktion gibt die Ausgabevariablen Variance (T-mal-1 bedingte Varianz), LongRunVar (T-mal-1 Langfristkomponente der bedingten Varianz) und ShortRunVar (T-mal-1 Kurzfristkomponente der bedingten Varianz) zurück. Sie können diese Variablen in die MATLAB-Funktion „plot“ einfügen, die diese Zeitreihen zeichnet.

Lieber Huang Qian, ich habe bereits die GarchMidas-Funktion ausgeführt, ich habe Ergebnisse erhalten, aber wie zeichne ich die "Bedingte Volatilität und ihre säkulare Komponente" als Abbildung 1. S.35., in Ihrer Hilfedatei "MIDAS_Usersguide_V2.3.pdf" . Schöne Grüße.

Lieber Zhuofan,
Mir ist keine einfache Methode zum Hinzufügen der makroökonomischen Variablen bekannt, aber Sie können erwägen, den Code von DccMidas anzupassen. Bei Zeile 526 gibt es eine lokale Funktion fML, die die logarithmische Wahrscheinlichkeit des Modells berechnet. Grundsätzlich hat Ihre makroökonomische Variable einen Einfluss auf die Log-Wahrscheinlichkeit. Daher möchten Sie möglicherweise die Log-Wahrscheinlichkeit in Bezug auf den Term „x“ sowie andere Parameter maximieren. Es braucht etwas Arbeit. Viel Glück!

Lieber Huang Qian,
Vielen Dank für Ihre Freundlichkeit für die Beantwortung unserer Fragen. Wir arbeiten gerade an unserem Abschlussprojekt für das Bachelor-Studium. und der Code ist wirklich nützlich für uns. Wir bekommen dort einige neue Probleme. Die Eingabeargumente von DccMidas enthalten nicht "x", die makroökonomischen Variablen. Gibt es also eine Methode, um die Dcc-Midas-Anpassung mit makroökonomischen Variablen durchzuführen? Müssen wir nur eine Fisher-Transformation zur langfristigen Korrelation hinzufügen? Könnten Sie uns bitte einige Anregungen und Hinweise geben? Tausend Dank!

Lieber Carlos,
Es ist für mich nicht offensichtlich, dass eine Dummy-Variable anders behandelt werden muss als eine makroökonomische Variable. Ich würde die Dummy-Variable in das Name-Wert-Paar 'X' setzen. Vielleicht möchten Sie auch verschiedene Einstellungen des Name-Wert-Paares 'LogTau' und 'ThetaM' ausprobieren. Wenn sich eine Dummy-Variable statistisch wirklich von einer regulären makroökonomischen Variablen unterscheidet, werden ein neues Modell und ein neuer Code zur Schätzung des Modells benötigt. Vielen Dank.

Lieber Hang Qian, toller Code, danke fürs Teilen, ich habe Kommentare gelesen und bemerkt, dass du deinen garch-midas-Code geschrieben hast, um ein "X" oder "RV" zu verwenden langfristige Volatilität, ich gehe davon aus, dass eine Dummy-Variable anders behandelt werden muss als eine makroökonomische Variable "X"? schöne Grüße

Lieber Zhuofan,
Das DCC MIDAS ist gewissermaßen ein datengetriebenes Modell. Die Software meldet die Kovarianzmatrix des Schätzers (EstParamCov), deren Quadratwurzel der diagonalen Elemente der Standardfehler der Parameter ist. Die Software meldet auch die bedingte Korrelationsmatrix. Das Modell eignet sich auch gut für die Volatilitätsprognose.

Lieber Hang Qian,
Vielen Dank für Ihre Freundlichkeit, diese Toolbox zu teilen. Es gibt eine Sache, die ich nicht verstehe, wird dieses DCC-MIDAS von einem datengesteuerten Modell geschätzt, so dass wir nicht den Standardfehler für jeden Parameter erhalten können? Wir wissen eigentlich nichts über datengetrieben, ist dieses Modell nicht geeignet, um den Zusammenhang zu erforschen, aber gut für Vorhersagen? Vielen Dank!

Lieber zhou lan cheng,
Wenn Ihre Daten gut sind und die Modellanpassung gut ist, sind die Gewichtungen positiv. Möglicherweise möchten Sie schlechte Modellspezifikationen ignorieren, bei denen die Gewichtungen negativ sind. Wenn Sie die Einschränkungen wirklich auferlegen möchten, können Sie den Code ändern. Wenn das numerische Optimierungsprogramm die kleinste Quadrate minimiert, können Sie der numerischen Optimierung eine gebundene Beschränkung hinzufügen, sodass es einen beschränkten Parameterraum nach einem minimierten Punkt für die kleinsten Quadrate durchsucht.

Lieber Hang Qian,
Danke für Ihre Antwort. Ich habe eine andere Frage zu sparsamen Polynomspezifikationen. Theoretisch sollten die Gewichtungen positiv sein, wenn wir das normalisierte exponentielle Almon-Lag-Polynom verwenden. Wenn ich jedoch MIDAS_ADL.m mit ExpAlmon ausführe, stellt sich manchmal heraus, dass die Gewichtungen negativ sind. Wie soll ich mit diesem Problem umgehen?
Vielen Dank
Cheng

Lieber Cheng,
MIDAS ist in erster Linie ein Vorhersagemodell, das die hochfrequenten Dateninformationen nutzt, die bei der Datenaggregation verloren gehen können. Daher wird MIDAS wahrscheinlich eine bessere Vorhersage erzielen als Modelle, die nur niederfrequente Daten als Prädiktoren verwenden. Die Regressionsergebnisse sind datengesteuert und die geschätzten Koeffizienten werden durch Daten bestimmt. Es handelt sich nicht um ein strukturökonometrisches Modell, das eine starre Beziehung zwischen den erklärenden Variablen und der Antwortvariablen festlegen kann. Es kann für kausale Schlussfolgerungen verwendet werden oder nicht. Wir müssen vorsichtig sein, wenn wir den Koeffizienten als Randeffekt der erklärenden Variablen interpretieren wollen. Vielen Dank.
Aufhängen

Lieber Hang Qian,
Vielen Dank für Ihren Anteil. Ich habe viel Literatur über MIDAS gelesen und festgestellt, dass die meisten nur das Präduktionsergebnis und nicht das Regressionsergebnis (die Bedeutung jedes Parameters) lieferten. Bedeutet dies, dass das Regressionsergebnis nicht wichtig ist und das Vorhersageergebnis nicht beeinflusst?
Ich bin wirklich verwirrt darüber.
Vielen Dank.
Cheng

Lieber Pei,
Eine Möglichkeit ist die Abwärtskompatibilität von Matlab. Neuere Versionen von Matlab funktionieren möglicherweise nicht gut mit dem alten Code. In diesem Fall können Sie eine ältere Softwareversion wiederherstellen. Eine andere Möglichkeit ist die Einstellung der Systemsprache. Da das Datumsformat je nach Region unterschiedlich ist, funktioniert der Code nur für die Systemsprache US-Englisch. Überprüfen Sie daher die Sprache Ihres Betriebssystems.

Lieber Hang Qian,
Vielen Dank für Ihren Anteil. Ich habe die Toolbox schon einmal heruntergeladen und die Funktionen und Ergebnisse funktionierten und liefen sehr gut. Aber als ich kürzlich denselben Code mit denselben Daten ausführe, hat Matlab einige Fehler gemeldet. Es scheint, dass es Probleme bei der Verwendung der Funktion datenum und datevec gibt?
Fehler verwenden Datenum (Zeile 178)
DATENUM fehlgeschlagen

Fehler MIDAS_ADL>MIDAS_ExtendForecast (Zeile 636)
DataYdateBig = datenum(DataYdate)

Fehler MIDAS_ADL (Zeile 418)
Erweiterte Prognose =
MIDAS_ExtendForecast(DataY,DataYdate,DataX,DataXdate,ExoReg,ExoRegDate.

Grund:
Fehler verwenden datevec (Zeile 212)
kann den Monat eines Jahres nicht finden

Ich habe das Matlab neu installiert, aber es gibt immer noch Fehler.
Wie könnte ich den Code anpassen? oder wie könnte ich dieses Problem lösen?
Vielen Dank!
Pei

Liebes Chen-Shu,
Sie können das Ausgabeargument „CorrMatrix“ und „LongRunCorrMatrix“ überprüfen, was den Korrelationsmatrizen entspricht. Wenn es sich nicht um die gesuchte Variable handelt, können Sie in den Code einsteigen, insbesondere die Unterfunktion „fML“, die die Korrelationsstrukturen analysiert und die Likelihood-Funktion berechnet. Vielen Dank.

Lieber Mirko,
An die genaue Datenstruktur kann ich mich nicht erinnern. Es scheint, dass die linke Seite der Quantilregression die n-Perioden-Erträge durch Aggregation von y(t) sind. y(t+Periode-1), während die rechte Seite der Gleichung die verzögerten Renditen durch Extrahieren von y(t-1) ist. y(t-nlag). Vielleicht möchten Sie Ihre Daten auf diese Weise formatieren. Siehe Zeile 176 -186 zur Datenverarbeitung.

Lieber Hang Qian,
Vielen Dank für das Teilen dieser wertvollen Toolbox. Ich habe Probleme mit der Implementierung der MIDAS-Quantilregression. Ich muss y (niederfrequente Daten, d. h. monatlicher Industrieproduktionsindex) auf x (hochfrequente Daten, d. h. tägliche Renditen eines Börsenindex) regressieren. Der Datensatz wurde in den letzten 25 Jahren generiert, aber da x bei hoher Häufigkeit vorliegt, gibt es 6500 Beobachtungen für x und nur 307 Beobachtungen für IPI (y). Unter den Eingaben der Funktion MidasQuantile ist angegeben, dass X die gleiche Länge wie Y haben muss, ein T-mal-1-Vektor. Wie ist es möglich? Wie kann ich das lösen?

Ich bin kein Experte, ich entschuldige mich für mögliche Fehlinterpretationen, aber ich habe keine anderen Möglichkeiten gefunden, diese Regression mit Matlab durchzuführen. Vielen Dank für die Hilfe.

Lieber Hang Qian,
Danke für das Teilen. Ich studiere den DCC-Midas-Code.Wie erhalte ich die Prognose des rollierenden Fensters außerhalb der Stichprobe 1 der Korrelationsmatrix?

Lieber Cheong,
Wenn Sie Ihren eigenen Code schreiben, können Sie den Debug-Modus von Matlab in Betracht ziehen, in dem Sie die Länge der Antwortvariablen und Ihrer makroökonomischen Variablen sehen können. Beide wachsen in der FOR-Schleife in die Länge, achten aber darauf, dass sie gleich lang sind. Viel Glück!

Vielen Dank für Ihre schnelle Antwort. Schätzen. Ich hänge immer noch mit den folgenden Befehlszeilen unten fest. Wie verbinde ich die unten stehende Befehlszeile zur Schätzung in der Stichprobe, die für GrachMidas RV gedacht ist:

% In-Sample-Prognosevalidierung
GarchMidas(y,'Period',period,'NumLags',numLags,'estSample',3130)

in die folgenden Befehlszeilen für GARCH-Midas mit exogener Makrovariable?

% Prognose außerhalb der Stichprobe
estParams = GarchMidas(y,'Period',period,'NumLags',numLags)
nPrognose = 5
yGroß = [y0]
für t = 1:nPrognose
[

,Varianz,LongRunVar] = .
GarchMidas(yBig,'Period',period,'NumLags',numLags,'Params',estParams)
yPseudo = estParams(1) + sqrt(Varianz(Ende))
yBig = [yBig(1:end-1)yPseudo0]
Ende

Können Sie mir helfen, die richtige Befehlszeile zu schreiben, die in MATLAB ausgeführt werden soll? TQVM.

Lieber Cheong,
Für die Out-of-Sample-Prognose muss die exogene makroökonomische Variable die gleiche Länge wie y haben. Im Code wird yBig mit zunehmender Länge konstruiert, sodass die exogene Variable auch in der FOR-Schleife ihre Länge erweitern muss. Vielen Dank.
Aufhängen

Ich habe die folgenden Befehlszeilen für GARCH-Midas RV verwendet und es geschafft, die Schätzung innerhalb der Stichprobe und die Vorhersage nach der Stichprobe zu erhalten. Aber im Fall von GARCH-Midas mit makroökonomischen Variablen kann ich mit den folgenden Befehlszeilen keine Prognosen nach der Stichprobe erhalten. Können Sie mich aufklären, wie ich vorgehen soll, oder müssen diese Befehlszeilen unten geändert werden?

% In-Sample-Prognosevalidierung
GarchMidas(y,'Period',period,'NumLags',numLags,'estSample',3130)

% Prognose außerhalb der Stichprobe
estParams = GarchMidas(y,'Period',period,'NumLags',numLags)
nPrognose = 5
yGroß = [y0]
für t = 1:nPrognose
[

,Varianz,LongRunVar] = .
GarchMidas(yBig,'Period',period,'NumLags',numLags,'Params',estParams)
yPseudo = estParams(1) + sqrt(Varianz(Ende))
yBig = [yBig(1:end-1)yPseudo0]
Ende
VarianceForecast = Variance(nobs+1:nobs+nForecast)
LongRunVarForecast = LongRunVar(nobs+1:nobs+nForecast)

Lieber Hamida,
Der Eingabeparser ist eine Kernfunktion von Matlab. Die Syntax wurde vor einigen Jahren aktualisiert, daher gibt es ein Abwärtskompatibilitätsproblem. Möglicherweise möchten Sie Ihr Matlab auf die neueste Version aktualisieren, um die Toolbox zu verwenden. Vielen Dank.

Lieber Qian, ich bin neu bei MATLAB und habe daher ein kleines Problem beim Ausführen der Demo. Sowohl für Midas-Quantil als auch für DCC-Midas. Die Fehlerausgabe für Quantil Midas " undefined function 'add parameter for input arguments of type 'input parser'.. Ich verwende MATLAB 2013a

Liebe Marwa,
Wenn Sie exogene Regressoren einbinden möchten, können Sie sich den DccMidas-Code ansehen und nach einer Unterfunktion fML suchen, in der die Log-Likelihood berechnet wird. Der exogene Regressor verschiebt die Log-Wahrscheinlichkeit. Es ist etwas schwierig, den Code anzupassen. Viel Glück!

Lieber Hang,
Ich möchte fragen, wie ich die exogene Variable in das DCC-MIDAS-Modell einbeziehen kann? Ist das genauso wie in den garch-midas?
Vielen Dank

Lieber zhou lan cheng,
Da die Anzahl der Tage in einem Monat variiert und die Software von einer bestimmten Anzahl von Verzögerungen mit hoher Frequenz ausgeht, ist dies nur eine Annäherung an die Aggregation von Kalendertag/Monat. Fehlende Werte werden durch NaNs angezeigt, die von der Software bei der Ausführung von Regressionen stückweise gelöscht werden. Vielen Dank.


Handbuch für Finanzökonometrie, Mathematik, Statistik und maschinelles Lernen

Dieses vierbändige Handbuch behandelt wichtige Konzepte und Werkzeuge, die in den Bereichen Finanzökonometrie, Mathematik, Statistik und maschinelles Lernen verwendet werden. Ökonometrische Methoden wurden in den Bereichen Asset Pricing, Corporate Finance, internationale Finanzen, Optionen und Futures, Risikomanagement und Stresstests für Finanzinstitute angewendet. In diesem Handbuch werden verschiedene ökonometrische Methoden diskutiert, darunter unter anderem Single-Gleichung-Multiple-Regression, Simultane-Gleichung-Regression und Paneldatenanalyse. Es umfasst auch statistische Verteilungen, wie die Binomial- und Log-Normalverteilung, im Hinblick auf ihre Anwendung auf die Portfoliotheorie und die Vermögensverwaltung sowie ihre Verwendung in der Untersuchung von Optionen und Terminkontrakten.

Sowohl in der Theorie als auch in der Methodik müssen wir uns auf die Mathematik verlassen, die lineare Algebra, Geometrie, Differentialgleichungen, stochastische Differentialgleichungen (Ito-Kalkül), Optimierung, eingeschränkte Optimierung und andere umfasst. Diese Formen der Mathematik wurden verwendet, um die Kapitalmarktlinie, die Wertpapiermarktlinie (Preismodell für Kapitalanlagen), das Optionspreismodell, die Portfolioanalyse und andere abzuleiten.

In jüngster Zeit hat die Computertechnologie in der Finanzforschung eine immer größere Bedeutung erlangt. Verschiedene Computersprachen und Programmiertechniken sind wichtige Werkzeuge für die empirische Finanzforschung. Daher werden in diesem Handbuch Simulation, maschinelles Lernen, Big Data und Finanzzahlungen untersucht.

Unter der Leitung des Distinguished Professor Cheng Few Lee von der Rutgers University integriert dieses mehrbändige Werk theoretische, methodische und praktische Fragen basierend auf seiner langjährigen akademischen und industriellen Erfahrung.

  • Band I:
    • Einführung in Finanzökonometrie, Mathematik, Statistik und maschinelles Lernen (CF Lee)
    • Verwenden Manager Gewinnprognosen, um eine Nachfrage zu erfüllen, die sie von Analysten wahrnehmen? (O Barron, J Cao, X Sheng, M Thevenot und B Xin)
    • Ein potenzieller Vorteil einer verbesserten Buch- und Steuerkonformität: Beweise für die Senkung der Prüfungsgebühren (N-T Kuo und CF Lee)
    • Gold im Portfolio: Ein langfristiger oder kurzfristiger Diversifizierer? (F-L Lin, S-Y Yang und Y-F Chen)
    • Ökonometrischer Ansatz für Finanzanalyse, Planung und Prognose (CF Lee)
    • Prognostizierte Wertentwicklung des Taiwan Weighted Stock Index: Aktualisierung und Expansion (D-Y Ji, H-Y Chen und CF Lee)
    • Parametrische, semi-parametrische und nicht-parametrische Ansätze für die wahlgebundene Bestimmung: Überprüfung und Vergleich (C F Lee und P G Zhang)
    • Messung der kollektiven Korrelation einer großen Anzahl von Aktien (W-F Niu und H H-S Lu)
    • Wichtige Kreditnehmer, die anhand der Intensität ihrer Interaktionen erkannt werden (F Aleskerov, I Andrievskaya, A Nikitina und S Shvydun)
    • Anwendung des multivariaten Durchschnitts F-Test zur Untersuchung der relativen Leistung von Asset-Pricing-Modellen mit individuellen Wertpapierrenditen (S. Rahman und M. J. Schneider)
    • Hedge-Ratio- und Zeitreihenanalyse (S-S Chen, CF Lee und K Shresth)
    • Anwendung des intertemporalen CAPM auf die internationale Unternehmensfinanzierung (J-R Chang, M-W Hung und CF Lee)
    • Was treibt die Variation der internationalen Diversifikationsvorteile an? Eine länderübergreifende Analyse (W-JP Chiou und K. Pukthuanthong)
    • Ein heteroskedastisches Black&ndashLitterman-Portfoliooptimierungsmodell mit Ansichten, die aus einer prädiktiven Regression abgeleitet werden (W-H Lin, H-W Teng und C-C Yang)
    • Preisgestaltung Faire Einlagensicherung: Struktureller Modellansatz (T Tai, C F Lee, T-S Dai, K L Wang und H-Y Chen)
    • Anwendung der Strukturgleichungsmodellierung in der Behavioral Finance: Eine Studie zum Dispositionseffekt (H-H Chang)
    • Fremdfinanzierungsbedarf und frühzeitige Übernahme von Rechnungslegungsstandards: Belege aus der Bankenbranche (S I-Ling Wang)
    • Verbesserung der Börsenprognose mit Social Media durch Broad Learning (X Zhang und P S Yu)
    • Beschaffung von Alpha an den globalen Aktienmärkten: Marktfaktorzerlegung und Marktmerkmale (S S Mohanty)
    • Unterstützung von Vector Machines-basierten Methoden für die Kreditrisikoanalyse (J. Li, M. Liu, C. F. Lee und D. Wu)
    • Data-Mining-Anwendungen im Accounting- und Finance-Kontext (W Kwak, Y Shi und C F Lee)
    • Kompromiss zwischen Reputationsproblemen und wirtschaftlicher Abhängigkeit für Wirtschaftsprüfer &mdash Threshold Regression Approach (F-C Lin, C-C Chien, CF Lee, H-C Lin und Y-C Lin)
    • ASEAN-Wirtschaftsgemeinschaft: Analyse basierend auf fraktionierter Integration und Kointegration (LA Gil-Alana und H Carcel)
    • Alternative Methoden zur Bestimmung von Optionsgrenzen: Eine Überprüfung und ein Vergleich (C F Lee, Z Zhong, T Tai und H Chuang)
    • Finanzreformen und die unterschiedlichen Auswirkungen ausländischer und inländischer Bankbeziehungen auf den Firmenwert (H-C Yu, C F Lee und B J Sopranzetti)
    • Zeitreihenanalyse: Komponenten, Modelle und Prognosen (CF Lee)
    • Itôs Kalkül und die Ableitung des Black&ndashScholes Optionspreismodells (G Chalamandaris und A G Malliaris)
    • Durbin&ndashWu&ndashHausman Spezifikationstests (RH Patrick)
    • Jump-Spillover und Risikoauswirkungen auf Überrenditen in den Vereinigten Staaten während der Großen Rezession (J Schlossberg und N. R. Swanson)
    • Gewinnprognosen und -revisionen, Kursdynamik und Fundamentaldaten: Weitere Explorationen von Finanzanomalien (J Guerard und A Mark)
    • Ranking-Analysten nach Netzwerkstrukturellem Loch (R-J Guo, Y Lu und L Xie)
    • Der Zusammenhang zwischen Buchsteuerdifferenzen und CEO-Vergütung (K-W Lee und G H-H Yeo)
    • Stochastische Volatilitätsmodelle: Ein Lächeln vortäuschen (D Diavatopoulos und O Sokolinskiy)
    • Entropische Zwei-Asset-Option (T Sebehela)
    • Die gemeinsamen Determinanten von Kapitalstruktur und Aktienrendite: Ein LISREL-Modellansatz (H-Y Chen, CF Lee und T Tai)
    • Zeit-Frequenz-Wavelet-Analyse der gemeinsamen Börsenbewegung zwischen und innerhalb von geografischen Handelsblöcken (B Kaffel und F Abid)
    • Alternative Methoden zum Umgang mit Messfehlern (H-Y Chen, AC Lee und CF Lee)
    • Gleichzeitige Erfassung mehrerer Abhängigkeitsfunktionen in der Bankrisikointegration: Ein Mixture Copula Framework (X Zhu, J Li und D Wu)
    • GPU-Beschleunigung für Computational Finance (C-H Han)
    • Misst VIX wirklich die Renditevolatilität? (KV Chow, W Jiang und J Li)
    • Ein ODE-Ansatz für die erwartete ermäßigte Strafe bei Ruin in einem Jump-Diffusion-Modell (Y-T Chen, CF Lee und Y-C Sheu)
    • Wie wirkt sich die Anlegerstimmung auf die implizite risikoneutrale Verteilung von Call- und Put-Optionen aus? (W-M Szu, Y-C Wang und W-R Yang)
    • Intelligente Portfoliotheorie und Stärkeinvestitionen im Zusammenfluss von Geschäfts- und Marktzyklen sowie Branchen- und Standortrotationen (H-Pfanne)
    • Evolutionsstrategiebasiertes adaptives Lq Penalty Support Vector Machines mit Gauss Kernel für die Kreditrisikoanalyse (J Li, G Li, D Sun und CF Lee)
    • Produktmarktwettbewerb und CEO-Gehaltsbenchmarking (I E Ziegel und D Palia)
    • Gleichgewichtsratenanalyse von Geldumwandlungssystemen: Der Fall von Konzerntöchtern (W Chen, B Melamed, O Sokolinskiy und B S Sopranzetti)
    • Ist das Marktportfolio Mean&ndashVariance effizient? (R Grauer)
    • Verbrauchsbasierte Preisgestaltung von Vermögenswerten mit Prospektionstheorie und Gewohnheitsbildung (J-Y Wang und M-W Hung)
    • Ein integriertes Modell zur kostenminimierenden Finanzierung von Unternehmensaktivitäten im Zeitablauf (MC Gupta)
    • Empirische Studien zu strukturellen Kreditrisikomodellen und der Anwendung in der Ausfallprognose: Überprüfung und neue Evidenz (H-H Lee, R-R Chen und CF Lee)
    • Empirische Performance des Optionspreismodells mit konstanter Elastizitätsvarianz (R.R. Chen, C.F. Lee und H.H. Lee)
    • Das Sprungverhalten eines Devisenmarktes: Analyse des thailändischen Baht (J-R Chang, M-W Hung, CF Lee und H-M Lu)
    • Die Überarbeitung der systematischen Ertragsrisikoankündigung bei bedingter Heteroskedastizität (C-C Chien, CF Lee und S-C Chiu)
    • Anwendungen von Fuzzy Set auf internationale Verrechnungspreise und andere Geschäftsentscheidungen (W Kwak, Y Shi, H Lee und CF Lee)
    • Eine Bootstrapping-Simulationsmethode für Zeitreihen, um die Fähigkeiten von Sell-Side-Analysten von Luck zu unterscheiden (C Su und H Zhang)
    • Akzeptanz neuer Technologien durch Mitarbeiter in der Finanzindustrie (V Belousova, V Solodkov, N Chichkanov und E Nikiforova)
    • Alternative Methode zur Bestimmung der Ratings von Industrieanleihen: Theorie und empirische Evidenz (L-J Kao und CF Lee)
    • Eine empirische Untersuchung des Long-Memory-Effekts auf das Verhältnis von Abwärtsrisiko und Aktienrenditen (C Y-H Chen und T C Chiang)
    • Analyse der sequentiellen Wandlung von Wandelanleihen: Ein wiederkehrender Überlebensansatz (L-J Kao, L-S Chen und CF Lee)
    • Determinanten der CDS-Spreads für Banken im Euro-Währungsgebiet (M-E K Agoraki, D A Georgoutsos und G T Moratis)
    • Dynamische Termstrukturmodelle mit Hauptkomponentenanalyse nahe der Null-Untergrenze (J Juneja)
    • Auswirkungen von Bewertungsfehlern auf das systematische Risiko und die Leistungskennzahl eines Portfolios (CF Lee und FC Jen)
    • Prognose von Netto-Ausbuchungsraten von Banken: Ein PLS-Ansatz (J. R. Barth, S. Joo, H. Kim, K. B. Lee, S. Maglic und X. Shen)
    • Anwendung von Filtermethoden im Asset Pricing (H Chang und Y Wu)
    • Stichprobenverteilung des Schätzers der relativen Risikoaversion: Theorie und Anwendungen (MJ Karson, D.C. Cheng und C.F. Lee)
    • Social Media, Bankbeziehungen und Firmenwert (C-H Chao und H-C Yu)
    • Splines, Heat und IPOs: Fortschritte bei der Messung von aggregierten IPO-Emissionen und -Leistungen (Z A Smith, M A M Al Janabi und M Z Mumtaz)
    • Die Auswirkungen des Stichprobenumfangs, des Anlagehorizonts und der Marktbedingungen auf die Gültigkeit zusammengesetzter Leistungskennzahlen: Eine Verallgemeinerung (S-N Chen und CF Lee)
    • Die Stichprobenbeziehung zwischen der Leistungskennzahl von Sharpe und ihrem Risiko-Proxy: Stichprobenumfang, Anlagehorizont und Marktbedingungen (S-N Chen und CF Lee)
    • VG NGARCH versus GARJI-Modell für Vermögenspreisdynamik (L-J Kao und CF Lee)
    • Warum nutzen Smartphone- und Tablet-Benutzer Mobile Banking? (V Belousova und N Chichkanov)
    • Nichtparametrische Inferenz zu Risikomaßen für integrierte Renditen (H Tsai, H-C Ho und H-Y Chen)
    • Copulas und Schwanzabhängigkeit im Finanzwesen (W-C Lai und K-L Goh)
    • Einige verbesserte Schätzer des Maximum Squared Sharpe Ratio (S K Choy und B-q Yang)
    • Fehler in Variablen und umgekehrte Regression Re (S Rahman und CF Lee)
    • Die Rolle von Finanzberatern bei M&As: Unterscheiden sich inländische und ausländische Berater? (K-S Chuang)
    • Diskriminanzanalyse, Faktorenanalyse und Hauptkomponentenanalyse: Theorie, Methode und Anwendungen (CF Lee)
    • Kreditanalyse, Prognose des Anleihenratings und Schätzung der Ausfallwahrscheinlichkeit (CF Lee)
    • Marktmodell, CAPM und Beta-Prognose (CF Lee)
    • Nutzentheorie, Capital Asset Allocation und Markowitz Portfolio-Selection-Modell (CF Lee)
    • Einzelindexmodell, Mehrfachindexmodell und Portfolioauswahl (CF Lee)
    • Sharpe Performance Measure und Treynor Performance Measure Ansatz für die Portfolioanalyse (P Chiou und CF Lee)
    • Optionen und Optionsstrategien: Theorie und empirische Ergebnisse (CF Lee)
    • Entscheidungsbaum und Microsoft Excel-Ansatz für das Optionspreismodell (J-R Chang und J Lee)
    • Statistische Ausschüttungen, Europäische Option, Amerikanische Option und Optionsgrenzen (CF Lee)
    • Ein vergleichender statischer Analyseansatz zur Ableitung griechischer Buchstaben: Theorie und Anwendungen (C F Lee und Y Xiao)
    • Fundamentale Analyse, technische Analyse und Fondsperformance (CF Lee)
    • Anleihenportfoliomanagement, Swap-Strategie, Duration und Konvexität (CF Lee)
    • Synthetische Optionen, Portfolioversicherung und bedingte Impfungen (CF Lee)
    • Alternatives Wertpapierbewertungsmodell: Theorie und empirische Ergebnisse (CF Lee)
    • Opazität, veraltete Preise, Analyse extremer Grenzen und Hedgefonds-Performance: Die gemeldeten Hedgefonds-Renditen verstehen (Z A Smith, M A M Al Janabi und M Z Mumtaz)
    • Existiert Quantil-Co-Integration zwischen Gold Spot und Futures-Preisen? (H-C Yu, C-J Lee und D-T Hsieh)
    • Bayesian Portfolio Mean&ndashVariance Efficiency Test with Sharpe Ratio's Sampling Error (L-J Kao, H. C. Soo und C. F. Lee)
    • Treibt die Umsatzdynamik die Gewinn- oder Preisdynamik an? (H-Y Chen, S-S Chen, C-W Hsin und CF Lee)
    • Technische, grundlegende und kombinierte Informationen zur Trennung von Gewinnern und Verlierern (H-Y Chen, CF Lee und W-K Shih)
    • Optimale Auszahlungsquote unter Unsicherheit und die Flexibilitätshypothese: Theorie und empirische Evidenz (C F Lee, M C Gupta, H-Y Chen und A C Lee)
    • Nachhaltige Wachstumsrate, optimale Wachstumsrate und optimale Auszahlungsquote: Ein gemeinsamer Optimierungsansatz (H-Y Chen, M.C. Gupta, A.C. Lee und CF.Lee)
    • Querschnittskorrelierte Messfehler in zweistufigen Regressionstests von Asset-Pricing-Modellen (T Gramespacher, A Bänziger und N Hilber)
    • Asset Pricing mit Ungleichgewichtspreisanpassung: Theorie und empirische Evidenz (C F Lee, C-M Tsai und A C Lee)
    • Ein dynamisches CAPM mit Angebotseffekttheorie und empirischen Ergebnissen (C F Lee, C-M Tsai und A C Lee)
    • Schätzverfahren zur Verwendung von fünf alternativen maschinellen Lernmethoden zur Vorhersage von Kreditkartenausfällen (H W Teng und M Lee)
    • Alternative Methoden zur Ableitung von Optionspreismodellen: Überprüfung und Vergleich (CF Lee, Y Chen und J Lee)
    • Optionspreis und Börsendynamik in China (J Li, Y Yao, Y Chen und CF Lee)
    • Weiterentwicklung optimaler Portfoliomodelle mit Leerverkäufen und Transaktionskosten: Methodik und Effektivität (W-JP Chiou und J-R Yu)
    • Der Weg zum neuen Leasingstandard IFRS 16: Wie kam die Neustrukturierung der Leasingbilanzierung bei verschiedenen Interessengruppen an? (C. Blecher und S. Kruse)
    • Implizite Varianzschätzungen für Black&ndashScholes und CEV OPM: Überprüfung und Vergleich (CF Lee, Y Chen und J Lee)
    • Auswirkungen der Krise auf die Vorhersehbarkeit des Aktienmarktes (R Mohnot)
    • Wie viele gute und schlechte Fonds gibt es wirklich? (W Ferson und Y Chen)
    • Optionspreismodell mit konstanter Varianzelastizität: Integration und detaillierte Ableitung (Y L Hsu, T L Lin und C F Lee)
    • Ein integraler Gleichungsansatz für Anleihekurse mit Anwendungen auf Credit Spreads (Y-T Chen, CF Lee und Y-C Sheu)
    • Probleme bei der Probenauswahl und Anwendungen (H-L Chuang und S-Y Chiu)
    • Zeitreihen- und neuronale Netzanalyse (K C Tseng, O Kwon und L C Tjung)
    • Kovarianz-Regressionsmodell für nicht-normale Daten (T Zou, R Luo, W Lan und C-L Tsai)
    • Auswirkungen der Zeitaggregation auf den Beta-Wert und R² Schätzungen unter additiven und multiplikativen Annahmen: Theoretische Ergebnisse und empirische Evidenz (Y Xiao, Y Tang und CF Lee)
    • Theorie mit großen Stichproben (S Poshakwale und A Mandal)
    • Auswirkungen von Bewertungsfehlern auf die simultane Gleichungsschätzung von Dividenden- und Anlageentscheidungen (C F Lee und F-L Lin)
    • Big Data und Künstliche Intelligenz in der Bankenbranche (T R Yu und X Song)
    • Eine nicht-parametrische Untersuchung der Finanzintegration in Schwellenmärkten (K Yang, S Wahab, B Kolluri und M Wahab)
    • Algorithmic Analyst (ALAN) &mdash Eine Anwendung für Künstliche Intelligenz Content as a Service (T Hong, D Lee und W Wang)
    • Überlebensanalyse: Theorie und Anwendungen im Finanzwesen (F Gao und X He)
    • Liquidität an der Börse bewerten (D Du und O Hu)
    • Die Entwicklung von Preismodellen für Kapitalanlagen: Aktualisierung und Erweiterung (Y-C Shih, S-S Chen, CF Lee und P-J Chen)
    • Das multivariate GARCH-Modell und seine Anwendung auf die ostasiatische Finanzmarktintegration (Y Tsukuda, J Shimada und T Miyakoshi)
    • Review von Difference-in-Difference-Analysen in den Sozialwissenschaften: Anwendung in der Policy-Testforschung (W H Greene und M Liu)
    • Verwendung von Regressionen mit sanftem Übergang zur Modellierung von Risikoregimen (LA Gallagher, M. C. Hutchinson und J. O'Brien)
    • Anwendung der Diskriminanzanalyse, der Faktorenanalyse, der logistischen Regression und des KMV-Merton-Modells in der Kreditrisikoanalyse (CF Lee und H-C Yu)
    • Vorhersage von Kreditkartenausfällen: Eine Anwendung tiefer neuronaler Netze (T Sun und M A Vasarhalyi)
    • Schätzung des Werts der Steuer-Timing-Option von Unternehmensanleihen (PH Chen, S. Liu und C. Wu)
    • DCC-GARCH-Modell für die dynamische Korrelation auf Markt- und Unternehmensebene in S&P 500 (P Chen, C Wu und Y Zhang)
    • Verwendung der Pfadanalyse zur Integration von buchhalterischen und nicht-finanziellen Informationen: Argumente für Umsatztreiber von Internet-Aktien (Ein Kozberg)
    • Die Auswirkungen der Regulierung auf den Bankensektor der Gemeinschaft: Risiko und Wettbewerb (G McKee und A Kagan)

    Leserschaft: Forscher und Fachleute, die sich für Finanzökonometrie, Mathematik, Statistik und Technologie interessieren.


    Reproduziere und zeichne mich selbst aus einem Papier mit geeigneten Skripten und Fisher/Kovarianz-Matrizen - Astronomie

    Ich habe eine 2-Gruppen-Lösung in einem Wachstumsmischungsmodell, das ich schätze, und möchte ein 2-stufiges GMM für dieses kontinuierliche Ergebnis integrieren (sehr ähnlich wie Ex 10.4 im MPLUS-Handbuch).

    Dies weicht jedoch von den "regulären" Multilevel-Modellierungsregeln ab, die mindestens 30 Mitglieder in mindestens 30 Gruppen (Hox zum Beispiel) erfordern. Ich frage mich, wie GMM das handhabt, da ich mir vorstellen kann, dass es die Stichprobe in "inner" und "zwischen"-Kovarianzmatrizen aufteilt, was wahrscheinlich mehrere Mitglieder in jedem Cluster erfordern würde.

    Wenn es Ihnen nichts ausmacht, Bengt, würden Sie mir bitte bei folgenden Fragen helfen:

    1. Bsp. 10.4 im Handbuch verwendet eine Variable c mit vordefinierten Klassenmitgliedschaftswerten. Dies steht im Gegensatz zum regulären GMM, bei dem c nur in der CLASSES-Anweisung identifiziert wird, ohne dass eine individuelle Mitgliedschaft a priori für die Beobachtungen definiert ist. Würden Sie bitte bestätigen, dass diese Variable gefüllt ist, indem Sie zuerst ein GMM OHNE das mehrstufige Setup ausführen und die Option SAVEDATA CPROBABILITIES verwenden, um die zusätzliche Variable c zu erstellen?

    Wenn dies der Fall ist, würde sich die Klassenmitgliedschaft dann möglicherweise nicht ändern, wenn eine mehrstufige Spezifikation verwendet wird?

    2. Mir ist aufgefallen, dass Sie auch Startwerte für einige Parameter (c#1 , ib und sb in Bsp.10.4) angeben? Hilft dies dem Integrationsalgorithmus von MPlus und stammen diese aus dem vorherigen einstufigen GMM-Lauf?

    3. Warum sind die Restvarianzen und der Steigungsfaktor (sb) für das BETWEEN-Modell auf 0 festgelegt? (p. 241 des Handbuchs besagt, dass dies ". im Einklang mit konventioneller Multilevel-Wachstumsmodellierung." Könnten Sie das bitte klären?). Ich verstehe, dass die numerische Integration mit jedem zusätzlichen zu schätzenden Residuum komplex wird, aber warum sind diese speziellen Residuen festgelegt?

    Würden Sie mich bitte auf einige Referenzen zu mehrstufigen Wachstumsmischungsmodellen verweisen? Ich habe bereits das Beispiel im MPLUS-Handbuch und Bengts Kapitel in Kaplans Buch gelesen und möchte mehr über die Interpretation der MPLUS-Ausgabe für diese Art von Modellen lesen.

    1. Die Variable c in Bsp. 10.4 hat keine vorgegebene Klassenzugehörigkeit – die Klassenzugehörigkeit wird wie bei anderen Mischungsanalysen aus den Daten abgeleitet.

    2. Ja, einige der Startwerte sind Näherungswerte aus einem vorherigen einstufigen Lauf und helfen somit, die optimale Lösung zu finden.

    Ich habe ein paar Folgefragen zu Multivel-GMM:

    1. Ich habe ex10.4.dat überprüft und festgestellt, dass die Variable c (auf die im NAMES-Befehl in Ex10.4 Bezug genommen wird) mit bereits vorhandenen Werten Ƒ oder 2) gefüllt wurde. Werden diese Klassenmitgliedschaften nicht von einem vorherigen Lauf ohne TWOLEVEL-Spezifikation abgeleitet? Wenn nicht, warum beziehen wir uns auf die c-Variable im NAMES-Befehl und wie wird die c-Variable gefüllt? Reguläre GMM-Läufe erfordern keinen Verweis auf die latente kategoriale Klassenvariable in der NAMES-Anweisung.

    2. Ich stelle fest, dass Ü10.4 klassenspezifische Mittelwerte hat, die im BETWEEN-Modell geschätzt werden. Mein Verständnis ist, dass dies ermöglicht, dass die Wachstumsfaktormittel je nach Cluster variieren.
    Vor der Ausführung der TWOLEVEL-Spezifikation hatte ich eine 2-Klassen-GMM-Schätzung mit klassenspezifischen Parametern "frei geschätzten Wachstumsprozessen, Faktormittelwerten und Restvarianzen&41".
    (Wie kann ich klassenspezifische Mittelwerte und/oder klassenspezifische Regressionen im WITHIN-Modell schätzen? Das heißt, wie ermögliche ich dem prototypischen Klassenmitglied einen separaten Wachstumsprozess?

    2. Wenn Sie sich die 2-Ebenen-Modellierung für Schüler in Schulen vorstellen, bezieht sich die latente Klassenvariable auf Schüler und nicht auf Schulen. Klassen werden also durch Schülermuster gebildet. Wenn Sie an 2-Ebenen-Regressionsmodelle denken, haben Sie auch die Mittelwerte der beobachteten Schülervariablen, die auf Ebene 2 erscheinen - dasselbe hier. Alle anderen klassenspezifischen Parameter können auf Ebene 1 (innerhalb) angegeben werden.

    Ich habe das Modell wie von Ihnen vorgeschlagen ausgeführt und eine Lösung für die Konvergenz erhalten.

    Wenn ich jedoch versuche, klassenspezifische Regressionen im %WITHIN%-Modell anzugeben, erhalte ich eine Fehlermeldung, dass Startwerte oder Nicht-Identifikation ein Problem sein können.

    vermunt/sm2003.pdf (pg. 228) und wenn dies von Ihrem Beispiel 10.2 mit dem Hinzufügen von LC bei L2 abweicht.

    TITEL: Dies ist ein Beispiel für einen zweistufigen CFA
    Mischungsmodell mit stetigem Faktor
    Indikatoren
    DATEN: DATEI IST ex10.2.dat
    VARIABLE: NAMEN SIND y1-y5 c clus
    VERWENDBARKEIT = y1-y5
    KLASSEN = c ƒ)
    CLUSTER = clus
    ANALYSE: TYP = ZWÖLFELLE MISCHUNG
    BEGINNT = 0
    MODELL:
    %INNERHALB%
    %INSGESAMT%
    fw VON y1
    y2 Ƒ)
    y3 ƒ)
    y4 Ɠ)
    y5 Ɣ)

    1. Werden die Mittelwerte (fb) zwischen den Klassen als Mittelwert der Klasse über alle Beobachtungen interpretiert, so dass in diesem Beispiel der Mittelwert von Klasse 1 um 2,2 Einheiten höher ist als der von Klasse 2, der Referenzgruppe mit Mittelwert = 0?
    2. Können Sie bitte unter kategorialen latenten Variablen erklären, wie der Mittelwert innerhalb der Ebene C#1 und die Varianz zwischen den Ebenen für C#1 zu interpretieren ist?
    3. Haben Sie oder kennen Sie jemanden, der ein mehrstufiges Faktormischungsmodell in einer angewandten Umgebung verwendet hat?

    2.Der Mittelwert c gibt die Klassenwahrscheinlichkeit an. On between c bezieht sich auf den zufälligen Mittelwert – eine kontinuierliche latente Variable, die zwischen den Clustern variiert.

    Bei der Interpretation des Zwischenfaktormittelwerts in einem mehrstufigen Faktormischungsmodell, bei dem das
    Klassen sind auf individueller Ebene, ist die Schule irrelevant? In anderen
    Wörter, der Mittelwert zwischen den Faktoren wird nicht als Schulmittelwert interpretiert
    für latente Klasse 1 im Vergleich zum Schulmittel für latente Klasse 2. Können Sie?
    helfen zu klären, wie die latente Klasse auf der inneren Ebene ist, aber die
    Zwischenfaktormittelwert auf Schulebene wird interpretiert, um zu bestimmen, ob
    unterscheiden sich die Klassen der Individuen signifikant im Faktormittelwert?

    Ich hoffe, es macht Ihnen nichts aus, dass ich mich hier einklinke, aber ich arbeite mit einem ähnlichen Modell mit einigen Daten, die ich habe.

    In Ihrem Fall könnten Sie das Gemisch also einfach als Vehikel betrachten, um eine realistischere Residualverteilung zu erhalten, aber Sie sind immer noch an nur einer Gesamtabschätzung des Schnittpunkts interessiert. Dies erhält man als

    Können Sie klären, wie man F und den Effekt einer Kovariate auf Clusterebene auf F interpretiert? Das Messmodell für F und der Effekt von w erscheint über latente Klassen hinweg konstant (wie es in Ihrer Ausgabe für 10.6 der Fall ist). Wie würde man in diesem Zusammenhang einen signifikanten "negativen" Effekt von w auf F interpretieren?

    1) Ich bin noch etwas unklar bezüglich der Interpretation von f in einer 4-Klassen-Lösung, mit den folgenden Ergebnissen:

    1 1025 0.12212
    2 404 0.04816
    3 2317 0.27593
    4 4650 0.55378

    F BY
    C#1 1.000 0.000 999.000 999.000
    C#2 0,165 0,166 0,995 0,320
    C#3 0,505 0,369 1,367 0,172

    F EIN
    DUNCH -0,013 0,013 -1,009 0,313
    DALL10 -0,042 0,011 -3,810 0,000
    DDROPOUT 0,020 0,022 0,932 0,351

    Die Implikation wäre, dass mit zunehmender DALL10 (a Kovariate auf Clusterebene) F abnimmt. Die Ladungen von c#1-c#3 auf F (und der Effekt von DALL10) sind jedoch in allen latenten Klassen gleich.

    Ich bin mir nicht sicher, ob ich die richtige Syntax habe, und ich freue mich über jede Anleitung:

    Verwenden Sie Variablen sind
    Elternschaft 1-6
    Alter Junge Armut chbhvr

    Klassen = cƓ)
    Cluster = famid
    innerhalb = Alter Junge
    zwischen = Armut

    Analyse: Typ= zweistufige Mischung fehlt
    beginnt = 100 10

    Ich war mir nicht sicher, ob ich deine Aussage verstanden habe:

    wenn es eine sig-Interaktion zwischen einer Kovariate (Armut) und der Klasse (d.h. zuzulassen, dass die Auswirkungen von Armut je nach Klasse unterschiedlich sind.

    Ich hoffe, dies hilft, meine Forschungsfragen zu klären, die sind:

    1. um die Elternprofile von Müttern zu identifizieren. Insofern erfordert die inhaltliche Natur meiner Frage nicht unbedingt eine mehrstufige lca (ursprünglich habe ich vor der Erweiterung zur Vorhersage eines distalen Typs einen Typ=Komplex angegeben, um die Verschachtelung mehrerer Kinder in einer Familie zu berücksichtigen) . Wir machen uns keine Sorgen um das Clustering auf "Familienebene" oder die Modellierung der Profile.

    2. Kovariaten identifizieren, die die Profilzugehörigkeit vorhersagen, z. B. Armut.

    3. feststellen, ob es eine signifikante Wechselwirkung zwischen Profil und Armut bei der Beeinflussung des kindlichen Verhaltens gibt. Ich möchte herausfinden, ob der Einfluss von Armut auf das Verhalten von Kindern in den L1-Profilen variiert. Auch hier ist das untergeordnete Verhalten verschachtelt (d.h. mehrere Kinder in einer Familie haben Punkte).

    Frage 3 ist, dass ich Schwierigkeiten habe, die mehrstufige Syntax richtig zu konzeptualisieren und anzugeben. Wie erfassen Sie diese L1-Profil-X-L2-Variablen-Interaktion an einem distalen Ende?

    Würden Sie empfehlen, eine LCA mit type=complex auszuführen, die Cprob (entropy > 0.8) zu speichern und diese dann als beobachtete Variable in einer nachfolgenden Mehrebenenanalyse zu verwenden?

    %ZWISCHEN%
    %INSGESAMT%
    C2#1 EIN C1#1
    FC VON C1#1 C2#1

    aber mit nur 2 Klassen pro Zeitpunkt ist die Aussage

    scheint ausreichend zu sein, da allein dadurch die 2 zufälligen Achsenabschnitte korrelieren.

    Ich denke, Sie sagen, dass Sie mehr als 2 Klassen besuchen möchten und dann müssen Sie die Dimensionalität vereinfachen, indem Sie z. für 3 Klassen:

    FC1 VON C1#1 C1#2
    FC2 VON C2#1 C2#2

    für die Korrelation der 2 zufälligen Achsenabschnitte in den 2 Klassen oder lasse ich diese Aussage weg, wenn ich versuche, die Dimensionalität zu vereinfachen?

    1) Die Ausgabe besagt, dass die Standardfehler der Modellparameterschätzungen möglicherweise nicht vertrauenswürdig sind, weil die Startwerte vorhanden sind oder mehr Parameter als die Anzahl der Cluster vorhanden sind. Ich habe 45 Cluster und das Modell hat 63 Parameter geschätzt. Wie kann ich die Syntax ändern, um die Anzahl der Parameter zu reduzieren? Auch die Größe der Cluster reicht von 3-18. Gibt es eine Faustregel bezüglich der Größe von Clustern?

    2) Die Mittelwerte der Elemente innerhalb des Clusters sind in allen Klassen identisch. Die Mittelwerte der Items zwischen den Clustern sind auch über die Klassen hinweg identisch. Was kann die identischen Mittel verursachen oder wie kann dieses Problem behoben werden? Dennoch zeigt der p-Wert von Tech 14 an, dass das Zweiklassenmodell besser passt als das Einklassenmodell.

    VARIABLE:
    Usevariables=E1 E3 E10 E13 E25 E29 E2 E11 E12 E14 E15 E16 E17 E19 E26 Agentur
    KLASSEN=Cƒ)
    Cluster=Agentur
    ANALYSE:
    Typ = Mischung zweistufig
    Prozess=8(STARTS)
    Startet=0
    Modell:
    %INNERHALB%
    %INSGESAMT%
    fw VON E1 E3 E10 E13 E25 E29 E2 E11 E12 E14 E15 E16 E17 E19 E26
    %ZWISCHEN%
    %INSGESAMT%
    fb VON E1 E3 E10 E13 E25 E29 E2 E11 E12 E14 E15 E16 E17 E19 E26
    c#1ƥ
    %c#1%
    [fbƦ]

    Ausgabe:
    tech11 tech14
    SPEICHERN: SPEICHERN=CPROBABILITIES
    DATEI IST ebppostprobs.dat

    Wir haben eine TWO-LEVEL LTA Ɣ Zeitpunkte angepasst, d.h. 4 kategoriale latente Variablen mit 4 Klassen) indem wir den nicht-parametrischen Ansatz wie in Henry und Muthen 2010 verwendet haben. CB hat 2 Klassen. Das bedeutet, dass wir im %BETWEEN% %OVERALL%

    C1#1 ON CB
    C1#2 EIN CB
    C1#3 EIN CB
    C2#1 ON CB
    C2#2 ON CB
    C2#3 EIN CB
    C3#1 ON CB
    C3#2 ON CB
    C3#3 ON CB
    C4#1 ON CB
    C4#2 ON CB
    C4#3 EIN CB

    Wir haben ein angewandtes Statistikpapier zur Veröffentlichung eingereicht, das Schlussfolgerungen für PROPORTIONEN FÜR JEDE LATENTE KLASSENVARIABLE AUF DER BASIS VON GESCHÄTZTEN POSTERIOR-WAHRSCHEINUNGEN zieht. Der Rezensent fragt nach Standardfehlern dieser Größenordnung. Gibt es eine Möglichkeit, diese aus den geschätzten Parametern zu berechnen, die uns die MPLUS-Ausgabe liefert?

    Wenn möglich, möchte ich Ihre Erläuterungen zu den Befehlen hören, die Schwellenstrukturen zu identifizieren scheinen, in den Spezifikationen des inneren Modells in Beispiel 10.7 im Mplus-Benutzerhandbuch v6.

    Warum brauchen wir hier die Schwellenwertbefehle (wenn ich es richtig verstehe, dass die [u1$1-u10$1] Schwellenwerte anzeigen sollen)? Und warum sollten wir es zweimal angeben?

    Ich habe mir andere Teile des Handbuchs angesehen und keine leicht verfügbare Erklärung dazu gefunden. Vielen Dank!

    Ich habe mich gefragt, ob es möglich ist, den Anteil der Varianz zu untersuchen, der durch verschiedene Ebenen in den mehrstufigen Daten erklärt wird, um zu entscheiden, für welche Ebene wir kontrollieren müssen.

    Ich habe Daten aus einer Gruppenintervention mit Paaren. Wir haben: 100 Paare in 29 Gruppen in 15 Institutionen.

    Da wir lediglich die Abhängigkeit in den Daten kontrollieren wollen, verwende ich TYPE=COMPLEX. Idealerweise möchte ich sowohl für Paare als auch für Gruppen steuern, jedoch scheint dies mit type=complex nicht möglich zu sein.

    1. Ist es möglich, den Varianzanteil zu schätzen, der durch unterschiedliche Niveaus in Ihren Daten erklärt wird?
    2. Ist es möglich, die Abhängigkeit auf 2 verschiedenen Ebenen zu kontrollieren, ohne ein innerhalb und zwischen Modellen zu spezifizieren?

    Danke für deinen Rat.

    Danke für ihre schnelle Antwort. Dies liefert wertvolle Informationen.

    Gibt es einen Konsens über die Höhe des IStGH, die eine Korrektur erfordern würde (das würde eine Berücksichtigung dieses Niveaus erfordern)?

    Nachdem ich die Warnung über die Änderung der Wahrscheinlichkeit während des letzten E-Schritts erhalten habe, die wahrscheinlich auf negative Bauchmuskeln in einem mehrstufigen Mischungsmodell (CACE) zurückzuführen ist, habe ich die Miterationen auf 1000 und die Integrationspunkte auf montecarlo 񢸈) erhöht, aber ich kann sehen von TECH8, dass es immer noch häufig große negative Bauchmuskeln (bis -500) gibt. Ich habe 6 Dimensionen der Integration im Inneren und 2 im Dazwischen. Nach meinen Schätzungen würde das Modell etwa eine Woche dauern, bis es fertig ist. An welchem ​​Punkt in TECH8 können wir schlussfolgern, dass das Modell nicht konvergiert?

    Andere ähnliche Modelle mit derselben Stichprobe, aber mit unterschiedlichen Ergebnissen konvergieren gut, sodass dies möglicherweise datenspezifisch ist.

    !zweistufiges gmm
    INNERHALB = P1PPL !Ƒ oder 0)
    BETWEEN = TREAT LC !Ƒ oder 0) !LC ist zwischen Level-Klassenvariable
    CLUSTER = LEHRER
    CATEGORICAL = training3 !Ƒ oder 0) !training3 liegt innerhalb der beobachteten Daten des Levels
    KLASSEN = LCƒ)

    !komplimente
    %lc#1%
    [training3$1@-15] !beobachtete Daten sind auf 1 . beschränkt
    [ib jdn]
    jdn ÜBER BEHANDLUNG

    !Niemals
    %lc#2%
    [training3$1@15] !beobachtete Daten sind auf 0 beschränkt
    [ib jdn]
    jdn auf BEHANDLUNG@0

    Auch dein Setup ist widersprüchlich. Ihr Modell impliziert, dass
    training3=LC

    Sie sagen jedoch, dass training3 eine Variable innerhalb der Ebene ist, während LC eine Variable zwischen den Ebenen ist. Dies muss konzeptionell und im Modell fixiert werden.

    Ich glaube, ich brauche neuere Ressourcen. Verzeihen Sie mir jedoch, dass ich den Artikel noch einmal aufrufe. Ich habe eine Folgefrage.

    In Asparouhov & Muthen 񢉖) heißt es: ". Die Schlüsselfrage bei der Modellierung von Klassenvariablen auf Ebenen ist, ob die beobachteten Variablen innerhalb der Ebene direkt verwendet werden können, um die Klassen zu identifizieren(p.9)" ".

    Es heißt auch: ". Zwischen den Ebenen latente Klassenvariablen können innerhalb und zwischen beobachteten Variablen gemessen werden, können jedoch nur durch zwischen beobachteten Variablen vorhergesagt werden(p.14)"

    Bedeutet dies nicht, dass ich innerhalb von Level-Variablen verwenden kann, um zwischen Level-Klassenvariablen zu messen(oder zu identifizieren)? Ich würde mich freuen, wenn Sie mich diesbezüglich korrigieren könnten.

    VARIABLE:NAMEN SIND u1-u8 clus
    KATEGORIE = u1-u8
    innerhalb=u1-u8
    KLASSEN = cbƒ)
    ZWISCHEN = cb
    CLUSTER = clus

    ANALYSE: TYP = ZWÖLFELLE MISCHUNG
    ALGORITHMUS = INTEGRATION

    Ich versuche, eine zweistufige Ökobilanz zu schätzen, die durch die Variablen der Ebene 1 (inner) angegeben wird, möchte aber zuerst auf jeder Ebene separat nach Klassen suchen.

    Ich weiß, wie man das für Level 1 macht, aber ich bin mir nicht sicher, wie man das für Level 2 macht.

    Nutzvariablen sind
    A01 A02 A04 A08 A09 A11 A15 A20 A22 A30


    Klassen = cbƒ)
    innerhalb= A01 A02 A04 A08 A09 A11 A15 A20 A22 A30
    zwischen = cb
    Fehlende sind leer
    Cluster=Clusterid

    Typ=zweistufige Mischung
    Prozessoren = 2
    startet = 1000 100

    Ich denke, ich muss die Anweisung "Cluster Mean" verwenden und die neu definierten Variablen zur between-Anweisung hinzufügen.

    Vielen Dank für Ihre Hilfe! Ich habe ein paar Fragen zu den Details. Betrachten Sie das 2-lvl-Regressionsmischungsmodell:

    VARIABLE: NAMEN SIND y x1 x2 w class clus
    VERWENDUNGSVARIABLE = y x1 w u1-u8
    Kategorisch = u1-u8
    KLASSEN = cb ƒ)
    INNERHALB = x1 u1-u8
    ZWISCHEN = w cb
    CLUSTER = clus

    MODELL:
    %INNERHALB%
    %INSGESAMT%
    y EIN x1
    f VON u1-u8
    [f@0]

    %ZWISCHEN%
    %INSGESAMT%
    y EIN w
    cb#1 EIN w

    Eine wesentliche Neuerung in Abbildung 19.11 ist die schulübergreifende Variation cb in der individuellen latenten Klassenvariable c. Dieser Teil des Modells ermöglicht es, den Einfluss von Variablen auf Schulebene auf die Klassenmitgliedswahrscheinlichkeit für die Schüler zu untersuchen.“ (Muthen, 2004, S.365)

    entspricht cb in diesem Artikel a_cj in Asparouhov & Muthen 񢉐)? wie es bedeutet: ". Innerhalb der latenten Klassenvariablen können durch innerhalb der Ebene beobachtete Variablen gemessen und vorhergesagt werden, während die zufälligen Effekte a_cj durch zwischen beobachteten Variablen gemessen und vorhergesagt werden können." (Asparouhov & Muthen, 2006)

    u1-u8 sind latente Klassenindikatoren in einer regulären Ökobilanz. Der Faktor f ermöglicht Korrelationen innerhalb der Klasse – dies ist die Faktormischungsmodellierung (siehe unsere Papiere dazu). Der Faktor f korreliert wahrscheinlich mit y, aber das ist eine wesentliche Frage.

    Latent-Variablen-Analyse Wachstumsmischungsmodellierung und verwandte Techniken für Längsschnittdaten

    Danke für deine Kommentare! Ich werde mir sicherlich Ihre Arbeiten zur Faktormischungsmodellierung ansehen.

    Was den zweiten Post angeht, ja, ich beziehe mich auf diesen Artikel. Die Seite ist 365.

    Ich arbeite daran, die Ergebnisse Ihres RI-LTA-Papiers als Klassendemonstration zu replizieren. Der Datensatz "Lesekompetenzbeispiel" hat ein Format, das ich anscheinend nicht in ein lesbares Format (mithilfe von Methoden mit fester Breite oder Trennzeichen) umwandeln kann

    DATEN:
    DATEI = dp.analytic.dat
    FORMAT IST f1.0, 20f2.0

    Ist die neue Version auf Ihrer Website verfügbar?

    In einem der Beiträge in diesem Forum (datiert von 2006) haben Sie bemerkt, dass "In zukünftigen Mplus-Versionen wir auch eine latente Klassenvariable haben werden, die zwischen den Ebenen variiert. Das wäre eine Variable auf Schulebene, die verschiedene Schulen klassifiziert."

    Ist das in der aktuellen Version 8 möglich? h. um latente Klassen auf den Variablen der "zwischen"-Ebene zu extrahieren?

    Ich habe zwei kontinuierliche Variablen, die nur auf Schulklassenebene variieren, und eine vorläufige Ökobilanzanalyse mit aggregierten Daten weist auf das Vorhandensein von 3 Klassen hin. Ich möchte diese Klassen in nicht aggregierte Daten verschieben, um zu sehen, ob sich einige Parameter der "innern"-Ebene zwischen diesen drei Klassen unterscheiden. Meine anfängliche LCA-Analyse auf Zwischenebenen führt zu diesem Fehler: "Parameter, die beobachtete Variablen zwischen den Ebenen beinhalten, dürfen nicht zwischen den Klassen variieren. "
    Es sieht so aus, als ob es nicht möglich ist, LCA für Variablen der Ebene "zwischen" auszuführen. Aber vielleicht mache ich hier etwas falsch.

    Meine Syntax sieht so aus:
    VERWENDBARKEIT = bSGSMAS1 bSGSPER1
    ZWISCHEN = bSGSMAS1 bSGSPER1
    KLASSEN = SGSCCƒ)
    CLUSTER = KLASSE
    ANALYSE:
    TYP IST ZWÖLFEM MISCHUNG
    SCHÄTZUNG IST MLR
    MODELL:
    %INNERHALB%
    %ZWISCHEN%
    %INSGESAMT%
    %SGSCC#1%
    [bSGSMAS1*]
    [bSGSPER1*]
    %SGSCC#2%
    [bSGSMAS1*]
    [bSGSPER1*]


    Schau das Video: Schneller und leichter skizzieren mit der Rastermethode. Ich zeige dir wie. Grid Tutorial (November 2024).