Bem-vindo ao Instituto de Pesquisa e Educação Digital Stata Class Notes Contando de n para N Introdução Stata tem duas variáveis internas chamadas n e N. N é a notação Stata para o número de observação atual. N é 1 na primeira observação, 2 na segunda, 3 na terceira, e assim por diante. N é a notação Stata para o número total de observações. Vejamos como n e N funcionam. Como você pode ver, o ID da variável contém o número de observação executado de 1 a 7 e nt é o número total de observações, que é 7. Contando com usando n e N em conjunto com o comando by podem produzir alguns resultados muito úteis. Naturalmente, para usar o comando by, primeiro devemos classificar nossos dados na variável por. Agora n1 é o número de observação dentro de cada grupo e n2 é o número total de observações para cada grupo. Para listar a pontuação mais baixa para cada grupo use o seguinte: Para listar a pontuação mais alta para cada grupo use o seguinte: Outra utilização de n Permite usar n para descobrir se há números de identificação duplicados nos seguintes dados: Como se verifica, As observações 6 e 7 têm os mesmos números de identificação e valores de pontuação diferentes. Encontrando Duplicatas Agora vamos usar N para encontrar observações duplicadas. Neste exemplo, classificamos as observações por todas as variáveis. Em seguida, usamos todas as variáveis na instrução by e definimos set n igual ao número total de observações que são idênticas. Finalmente, listamos as observações para as quais N é maior que 1, identificando assim as observações duplicadas. Se você tem um monte de variáveis no conjunto de dados, pode demorar muito tempo para digitá-los todos fora duas vezes. Podemos fazer uso do caractere curinga para indicar que desejamos usar todas as variáveis. Além disso, nas versões mais recentes do Stata, podemos combinar sort e by em uma única declaração. Abaixo está uma versão simplificada do código que irá produzir os mesmos resultados exatos como acima. O conteúdo deste site não deve ser interpretado como um endosso de qualquer site, livro ou produto de software específico pela Universidade da Califórnia. 12 de outubro de 2016 Camp Yawgoog recentemente comemorou sua 100th Aniversário temporada com mais de 350 Scouters e familiares desfrutando Um dia bonito sob um céu azul. O dia foi repleto de atividades começando às 9 da manhã com o Dave Anderson 5K Race em torno Camp Yawgoog. Passeios de ônibus, encontros de natação, centros de programas e vendas de remendos, todos centrados em torno do hellip 12 de outubro de 2016 É sempre ótimo estar em Yawgoog, não é Para sentir o cheiro dos pinheiros brancos, sentir a brisa vindo do lago, ouvir um familiar Elogio no salão de jantar que desperta algo em você, alcança em sua memória e impõe-se de seu self da infância. É como voltar para casa. Em seguida, você vê um hellip 12 de outubro de 2016 Na manhã de sábado 30 de julho, mais de 80 pilotos se reuniram no Tribunal Donald North para se preparar para a corrida. No comparecimento, tivemos Scouts, Scouters e corredores de todo o estado. A rota para a corrida começou no parque de estacionamento usando a maneira nova caminhada de tijolo como o ponto de partida, os corredores fizeram hellip 12 de outubro de 2016 Yawgoog Alumni, A lona é para baixo, as persianas de salão de jantar são fechadas, e os centros de programa são camas Down for winter8230 Yawgoogs 100th aniversário temporada é completa e foi um sucesso fenomenal. A celebração do Fim de Semana do 100º Aniversário foi um grande sucesso O fim de semana começou na sexta-feira com uma recepção em Chelos no Waterfront hellip 12 de outubro de 2016 24 de março de 1933 a 11 de abril de 2016 8220Build me scout, Para saber quando ele é fraco e corajoso o suficiente para enfrentar a si mesmo quando ele tem medo que será orgulhoso e inflexível em derrota honesta, e humilde e gentil em vitória8230 Construa-me um Scout cujo hellip 12 de outubro de 2016 Com irmãs crescendo e agora filhas Luke Landherr, um membro da equipe Yawgoog de 1999-2003 e, em seguida, em 2005, quando ele era diretor assistente do campo lembra campo não só como um lugar onde ele poderia estar com outros meninos, mas um lugar onde ele poderia estar no Passado, presente e futuro, hellip 12 de outubro de 2016 Há pessoas que tentam várias carreiras no decorrer de suas vidas. Ex-escoteiros da América Chefe Adjunto Scout Executivo e Chief Operating Officer Gary Butler foi sempre certeza de que ele estava interessado. Desde muito jovem, ele sabia que queria estar na indústria sem fins lucrativos e ter uma carreira no Escotismo. Hellip October 12, 2016 Enquanto eu atravesso a vida, minha apreciação para minha experiência do Scouting cresce. Era difícil imaginar como um pré-adolescente e adolescente que as habilidades que eu estava ganhando, em seguida, iria me ajudar anos mais tarde. Como muitos outros rapazes, comecei minha experiência de Escoteiros com determinação concentrada. FERRANTE, Judy (West Warwick, RI) 1983 Melhor festa de fim de semana e Alumni Reunion EVER O fim de semana inteiro foi um fracasso não sei qual evento eu gostei best8230 bem, a dedicação de O Brick Memorial Walkway certamente permanecerá comigo para o resto da minha vida e além agora que meu nome é esculpido em hellip Este post foi escrito em conjunto com Yulia Marchenko, Diretor Executivo de Estatística, StataCorp. A teoria da resposta ao item (IRT) é usada para modelar a relação entre as habilidades latentes de um grupo de sujeitos e os itens de exame usados para medir suas habilidades. Stata 14 introduziu uma suíte de comandos para a montagem de modelos IRT usando máxima verossimilhança, veja, por exemplo, o blog Spotlight on irt de Rafal Raciborski eo manual da IRT Item Response Theory para mais detalhes. Neste post, demonstramos como ajustar Bayesian binário IRT modelos usando o redefinir () opção introduzida para o comando bayesmh no Stata 14.1. Também usamos a opção de verossimilhança dbernoulli () disponível a partir da atualização em 03 de março de 2016 para montagem da distribuição Bernoulli. Se você não estiver familiarizado com os conceitos e o jargão das estatísticas bayesianas, talvez queira assistir aos vídeos introdutórios no canal Stata Youtube antes de prosseguir. Utilizamos a versão abreviada dos dados matemáticos e científicos de DeBoeck e Wilson (2004), masc1. O conjunto de dados inclui 800 respostas de estudantes a 9 perguntas de teste destinadas a medir a habilidade matemática. A suíte irt se encaixa modelos IRT usando dados na forma ampla 8211 uma observação por assunto com itens registrados em variáveis separadas. Para ajustar modelos IRT usando bayesmh. Precisamos de dados na forma longa, onde os itens são registrados como observações múltiplas por assunto. Assim, remodelamos o conjunto de dados em uma forma longa: temos uma única variável de resposta binária, y. E duas variáveis de índice, item e id. Que identificam os itens e assuntos, respectivamente. Isso nos permite formular nossos modelos IRT como modelos multiníveis. Os comandos a seguir carregam e preparam o conjunto de dados. Para garantir que inclua todos os níveis de item e id em nossos modelos, usamos fvset base none para manter as categorias de base. No que se segue, apresentamos oito modelos IRT binários bayesianos, aumentando em complexidade e poder explicativo. Realizamos a comparação de modelos bayesianos para obter uma visão sobre o que seria o modelo mais adequado para os dados disponíveis. Para modelos de alta dimensionalidade, como modelos IRT, você pode ver diferenças nos resultados de estimativa entre diferentes plataformas ou diferentes sabores de Stata devido à natureza da amostragem de Monte Carlo (MCMC) de cadeia de Markov e precisão numérica finita. Estas diferenças não são uma fonte de preocupação que estarão dentro do intervalo da variabilidade MCMC e levará a conclusões inferenciais semelhantes. As diferenças vão diminuir à medida que o tamanho da amostra MCMC aumenta. Os resultados neste post são obtidos do Stata / SE na plataforma Linux de 64 bits usando o tamanho de amostra padrão de 10.000 MCMC. Deixe os itens ser indexados por (i1, pontos, 9) e os assuntos por (j1, pontos, 800). Seja (thetaj) a habilidade matemática latente do sujeito (j), e seja (Y) a resposta do sujeito (j) ao item (i). No modelo de logística de um parâmetro (1PL), a probabilidade de obtenção de uma resposta correta é modelada como uma função inversa-logit dos parâmetros de localização (bi), também chamada dificuldades de item, e um parâmetro de inclinação comum (a), também chamado de item Discriminação: Normalmente, as habilidades são assumidas como sendo normalmente distribuídas: thetaj sim (0,1) Em um framework multinível, o (thetaj) 8217s representam efeitos aleatórios. Em uma estrutura bayesiana, usamos o termo "efeitos aleatórios" para referir os parâmetros correspondentes aos níveis de variáveis de agrupamento que identificam a hierarquia dos dados. Uma formulação Bayesiana do modelo 1PL também requer especificação prévia para os parâmetros do modelo (a) e (bi). Assume-se que o parâmetro de discriminação (a) é positivo e é frequentemente modelado na escala logarítmica. Como não temos nenhum conhecimento prévio sobre os parâmetros de discriminação e dificuldade, assumimos que as distribuições prévias de (ln (a)) e (bi) têm suporte em toda a linha real, são simétricas e estão centradas em 0. Uma prioridade normal Distribuição é, portanto, uma escolha natural. Além disso, assumimos que (ln (a)) e (bi) são próximos de 0 e têm variância prévia de 1, que é uma decisão inteiramente subjetiva. Assim, atribuímos (ln (a)) e (bi) distribuições normais normais: Para especificar a função de verossimilhança do modelo 1PL em bayesmh. Nós usamos uma especificação de equação não linear para a variável de resposta y. A especificação não-linear direta para este modelo é onde está o parâmetro de discriminação (a), são habilidades latentes (thetaj) e são dificuldades de item (bi). O modelo logit é usado para a probabilidade de sucesso, (P (Y 1)). A especificação na expressão não linear anterior é vista como uma expressão substituível para combinações lineares de indicadores associados com a variável id e parâmetros (thetaj). Esta especificação pode ser computacionalmente proibitiva com um grande número de sujeitos. Uma solução mais eficiente é usar a opção redefine () para incluir efeitos aleatórios sujeitos (thetaj) no modelo. O mesmo argumento pode aplicar-se à especificação quando há muitos itens. Assim, pode ser computacionalmente conveniente tratar os (bi) parâmetros como 8220 efeitos aleatórios8221 na especificação e usar a opção redefine () para incluí-los no modelo. Uma especificação mais eficiente é portanto onde e na especificação não-linear agora representam os parâmetros (thetaj) e (bi), respectivamente, sem usar expansões em combinações lineares de variáveis de indicador. Abaixo, mostramos a especificação bayesmh completa do modelo 1PL eo resumo de saída. Em nossos exemplos, tratamos as habilidades como parâmetros incômodos e os excluímos dos resultados finais. O parâmetro do modelo de discriminação deve ser positivo e, portanto, ser inicializado com 1. Um período de queima mais longo, burnin (5000). Permite uma adaptação mais longa do amostrador MCMC, o que é necessário dado o grande número de parâmetros no modelo. Finalmente, os resultados da estimativa são armazenados para comparação posterior do modelo. A eficiência da amostragem é aceitável, cerca de 6 em média, sem indicação de problemas de convergência. Embora a inspeção de convergência detalhada de todos os parâmetros esteja fora do escopo deste post, recomendamos que você faça isso usando, por exemplo, o comando bayesgraph diagnostics. Embora tenhamos usado priores informativos para os parâmetros do modelo, os resultados da estimação de nosso modelo bayesiano não são diferentes das estimativas de máxima verossimilhança obtidas usando o comando irt 1pl (ver exemplo 1 em IRT irt 1pl). Por exemplo, a estimativa média posterior é de 0,86 com um erro padrão MCMC de 0,003, enquanto que 1irt rela 0,85 com um erro padrão de 0,05. A probabilidade log-marginal é relatada como ausência porque excluímos os parâmetros dos resultados da simulação eo estimador de Laplace-Metropolis da probabilidade log-marginal não está disponível em tais casos. Este estimador requer resultados de simulação para todos os parâmetros do modelo para calcular a probabilidade log-marginal. O modelo de dois parâmetros de logística (2PL) estende o modelo 1PL, permitindo a discriminação item-específico. A probabilidade de resposta correta é agora modelada como uma função de parâmetros de inclinação específicos de item (ai): P (Y 1) frac A especificação anterior para (thetaj) permanece a mesma que no modelo 1PL. Iremos, no entanto, aplicar especificações prévias mais elaboradas para (ai) 8217s e (bi) 8217s. É uma boa prática usar especificações prévias adequadas sem superar a evidência dos dados. O impacto dos priores pode ser controlado pela introdução de hiperparâmetros adicionais. Por exemplo, Kim e Bolt (2007) propuseram o uso de um normal anterior para os parâmetros de dificuldade com média e variância desconhecidas. Estendendo esta abordagem aos parâmetros de discriminação também, aplicamos um modelo Bayesiano hierárquico no qual os parâmetros (ln (ai)) e (bi) têm as seguintes especificações anteriores: ln (ai) sim (mua, sigmaa2) bi sim , Sigmab2) Os hiperparâmetros médios, (mua) e (mub) e os hiperparâmetros de variância, (sigmaa2) e (sigmab2), requerem especificações prévias informativas. Para diminuir a variabilidade dos parâmetros (ln (ai)) e (bi), aplicamos um inverso-gama antes com (0,1) Forma 10 e escala 1 para os parâmetros de variância: Assim, a média anterior de (sigmaa2) e (sigmab2) é de cerca de 0,1. Na especificação bayesmh, os hiperparâmetros (mua), (mub), (sigmaa2) e (sigmaa2) são denotados como. . . E. respectivamente. Utilizamos a opção redefinir (discrim: i. item) para incluir no modelo os parâmetros de discriminação (ai), referidos na especificação de verossimilhança. Em relação à simulação MCMC, mudamos algumas das opções padrão. Os hiperparâmetros. . . E são colocados em blocos separados para melhorar a eficiência da simulação. Os parâmetros de discriminação devem ser positivos e, portanto, são inicializados com 1s. A eficiência de simulação média é de cerca de 5, mas alguns dos parâmetros convergem mais lento do que os outros, como. Que tem o maior erro padrão MCMC (0,02) entre os parâmetros de dificuldade. Se este foi um estudo rigoroso, para reduzir os erros padrão MCMC, recomendamos simulações mais longas com tamanhos de amostra MCMC de pelo menos 50.000. Podemos comparar os modelos 1PL e 2PL usando o critério de informação de desvio (DIC) disponível com o comando bayesstats ic. A DIC é frequentemente utilizada na selecção de modelos bayesianos como uma alternativa aos critérios AIC e BIC e pode ser facilmente obtida a partir de uma amostra MCMC. As amostras de MCMC maiores produzem estimativas DIC mais confiáveis. Como diferentes amostras de MCMC produzem valores de DIC de amostra diferentes eo erro de aproximação de amostra no cálculo de DIC não é conhecido, não se deve confiar unicamente na DIC ao escolher um modelo. Valores DIC mais baixos indicam melhor ajuste. A DIC do modelo 2PL (8.055) é marcadamente inferior à DIC do modelo 1PL (8,122), o que implica um melhor ajuste do modelo 2PL. O modelo de três parâmetros de logística (3PL) introduz menores parâmetros assíntota (ci), também chamado de adivinhação parâmetros. A probabilidade de dar uma resposta correta é dada por Os parâmetros de adivinhação podem ser difíceis de estimar usando máxima verossimilhança. Na verdade, o comando irt 3pl com a opção sepguessing não converge, como você pode verificar digitando no dataset original. Portanto, é importante especificar uma informação anterior para (ci). Assim como os parâmetros de discriminação e dificuldade, os (ci) 8217s são introduzidos como parâmetros de efeitos aleatórios na especificação bayesmh e são referidos Como na especificação de verossimilhança. Ao contrário dos modelos 1PL e 2PL, não podemos usar a opção de probabilidade (logit) para modelar a probabilidade de sucesso porque a probabilidade de resposta correta não é mais uma transformação logit inversa dos parâmetros. Em vez disso, usamos a probabilidade (dbernoulli ()) para modelar a probabilidade de sucesso de um resultado de Bernoulli diretamente. Para ter uma inicialização válida do amostrador MCMC, atribuímos os valores iniciais positivos (ci) 8217s, 0,1. Os meios posteriores estimados do (ci) 8217s variam entre 0,08 e 0,13. Claramente, a introdução de parâmetros de adivinhação tem um impacto sobre a discriminação item e parâmetros de dificuldade. Por exemplo, os meios posteriores estimados de (mua) e (mub) mudam de -0,10 e -0,07, respectivamente, para o modelo 2PL a 0,11 e 0,08, respectivamente, para o modelo 3PL. Como os parâmetros de adivinhação estimados não são tão diferentes, pode-se perguntar se os parâmetros de adivinhação específicos do item são realmente necessários. Para responder a esta pergunta, nós ajustamos um modelo com um parâmetro de adivinhação comum,. E compará-lo com o modelo anterior. Podemos comparar novamente os dois modelos 3PL usando o comando bayesstats ic: Embora os DIC estimados dos dois modelos 3PL sejam essencialmente os mesmos, decidimos, para fins de demonstração, prosseguir com o modelo com parâmetros de adivinhação específicos de item. O modelo de quatro parâmetros de logística (4PL) estende o modelo 3PL, adicionando parâmetros assintóticos superiores (di): P (Y 1) ci (di-ci), ci PACES Consultoria Olá Nikolay e Yulia, eu queria experimentar Usando o exemplo para especificar um modelo de Rasch, que parece correto (as estimativas de parâmetro também são razoavelmente próximas às derivadas de jMetrik usando os mesmos dados): webuse masc1, clear qui: g int id n qui: reshape long q, i (id ) Jv (item) fvset base nenhum item id set semente 14 d // 1PL Exemplo de post do blog bayesmh q ((-)), a probabilidade (logit) redefine (diff: i. item) redefine (subj: i. id) prior (0, 1)) anterior (, normal (0, 1)) init (1) exclude () burnin (5000) // Exemplo Rasch baseado no post do blog bayesmh q (1, -)), a probabilidade (logit) redefine (dif: i. item) redefine (subj: i. id) anterior (, normal (0, 1) Burnin (5000) No entanto, não é tão claro como se poderia derivar estatísticas infit / outfit, resíduos para a pessoa e item estimativas, ou a melhor maneira de corrigir a estimativa pessoa (por exemplo, Usando a pontuação da soma entre itens). Parece que as estimativas neste exemplo são todas as derivadas bayesianas do estimador Margem MLE, mas há uma maneira de se encaixar nos mesmos modelos usando o MLE Joint (para os casos em que os parâmetros de pessoa precisam ser estimados ao mesmo tempo que o Item parâmetros) Por último, há alguma chance de um acompanhamento para este post que potencialmente mostrar como ajustar muitos facet rasch modelos e / ou multidimensional IRT modelos usando bayesmh (qualquer caso seria muito espantoso ver) Obrigado novamente e bom trabalho No blog, Billy Veja nossas respostas para cada uma de suas perguntas abaixo. Sua especificação do modelo Rasch está correta. Isto é, para nosso exemplo de dados matemáticos e científicos, um modelo Rasch pode ser especificado como. Bayesmh y (-), verossimilhança (logit) gt redefinir (subj: i. id) redefinir (delta: i. item). Aqui, rotulamos os parâmetros específicos de item como 8220delta8221 em vez de 8220diff8221 como em nosso exemplo 1PL para enfatizar que as estimativas deste modelo Rasch serão diferentes das do modelo 1PL ajustado. Há também mais detalhes sobre como ajustar um modelo Rasch usando bayesmh e seu link para 1PL modelo IRT no exemplo 28 em Bayesmh Bayes. 2. Estimativa conjunta de parâmetros específicos de pessoa e item bayesmh estima os parâmetros específicos de cada pessoa e item específico. Em nossos exemplos de IRT, não estávamos interessados nas estimativas específicas da pessoa, por isso usamos a opção exclude () para excluí-los dos resultados finais. Se você não usar essa opção, as estimativas específicas da pessoa serão salvas com todas as estimativas MCMC e serão exibidas na tabela de estimativas. 3. Estatísticas de equipamento / infit e residuais Dentro da estrutura bayesiana, as estatísticas de ajuste de modelo são obtidas usando a chamada distribuição preditiva posterior, a distribuição do resultado Y com os dados observados y. Um valor p predictivo posterior associado a uma estatística de interesse é freqüentemente usado para acessar o ajuste do modelo. Vamos considerar escrever uma entrada de blog de acompanhamento sobre Bayesian posterior avaliação preditiva de modelos IRT. 4. Modelos Rasch de muitas facetas e modelos IRT multidimensionais Ao ver modelos Rasch de muitas facetas como tendo parâmetros adicionais de 8220 efeitos aleatórios8221, podemos estender a especificação básica simplesmente adicionando mais termos de efeitos aleatórios. Continuando nosso exemplo de um modelo Rasch, suponha que exista outro 8220facet8221 representado por uma tarefa variável no conjunto de dados. Item de tarefa de identificação q 821282128212821282128212- 1 1 1 0 1 1 2 1 8230 100 10 5 0 Nós simplesmente adicionamos os parâmetros de efeitos aleatórios associados à tarefa à especificação do modelo como segue:. Fvset base nenhum item de tarefa de id. Bayesmh q (-), probabilidade (logit) gt redefinir (subj: i. id) gt redefinir (tarefa: i. task) gt redefinir (delta: i. item). Dentro do contexto IRT, o modelo IRT bidimensional correspondente poderia ser ajustado como se segue. (Usamos a especificação de um modelo IRT multidimensional dado pela fórmula (3) em Reckase (2007, p.612)). Fvset base nenhum item de tarefa de id. Bayesmh q (), probabilidade (logit) gt redefinir (subj: i. id) gt redefinir (tarefa: i. task) gt redefinir (d: i. item). Onde os parâmetros e são comuns entre os itens. Se queremos tornar esses parâmetros específicos do item, podemos usar a seguinte especificação:. Fvset base nenhum item de tarefa de id. bayesmh q (), a probabilidade (logit) redefine gt (subj: i. id) gt redefine (tarefa: i. task) gt redefine (d: i. Item) gt redefine (a1: i. Item) gt redefine (a2: I. item). Você pode estender modelos acima de uma maneira direta para acomodar mais facetas ou dimensões. Reckase, M. D. 2007. Teoria Multidimensional da Resposta do Item. Em Vol. 26 do Handbook of Statistics: Psychometrics, ed. C. R. Rao e S. Sinharay, 607-642. Amsterdam: Elseiver. 8212 Nikolay e Yulia Olá Nikolay e Yulia, Impressionante. Acho we8217re falando de coisas ligeiramente diferentes no que diz respeito a 3. Here8217s um extremamente breve explicação das estatísticas InFit / equipamento a partir da perspectiva Rasch: rasch. org/rmt/rmt162f. htm~~number=plural, bem como um trecho parcialmente útil a partir de Wright, BD amp Masters, GN (1982). Avaliação Análise de Escala. Chicago, Il: MESA Imprensa: rasch. org/rmt/rmt34e. htm. As estatísticas de infit / outfit são usadas quando se tomam decisões sobre retenção / descarte de um item do banco / calibração de pontuação / item e, até certo ponto, os análogos de pessoas dessas estatísticas podem ser úteis na detecção de possíveis casos de irregularidades no teste (por exemplo, Theta que responde a perguntas difíceis corretamente e perguntas mais fáceis em níveis da possibilidade, etc8230). Nada I8217ve ler até agora falou sobre uma bondade estilo omnibus de ajuste, ea discussão (pelo menos com o pessoal do acampamento Rasch) tende a ser revertida para testar o quão bem os dados de ajustar o modelo (em vez de quão bem os ataques modelo os dados). Em ambos os casos, isso é incrível e oportuno (houve uma comparação das capacidades Bayesian Stata8217s para JAGS e Stan no blog Andrew Gelman8217s hoje). Se é possível lançar outra idéia potencial para uma postagem futura no blog, se ela não tiver problemas demais, qualquer coisa que demonstre que qualquer modelo de classe latente e / ou modelos de medição de mistura serão verdadeiramente notáveis. Obrigado novamente, Billy Hi Nikolay e Yulia, Como um breve acompanhamento sobre o Joint MLE e Infit / Outfit estatísticas, eu coloquei uma rápida demonstração de algumas das diferenças que eu observei. O programa é um wrapper que passou os dados do Stata em algumas das classes usadas por jMetrik (veja github / meyerjp3 / psicometria para mais informações) para ajustar o modelo Rasch usando o Joint estimador de máxima verossimilhança (bem como valores para InFit / roupa ). O programa também cria variáveis no conjunto de dados na memória com as estimativas de nível de pessoa de theta, a SE torno theta, e as estatísticas InFit / equipamento nível pessoa: raschjmle inst líquida, a partir de (8220paces-consulting. org/stata8221) webuse masc1. dta, claro iteração Delta Log-verossimilhança 1 0,502591842208104 -3402,304331969046 2 0,142412255554409 -3397,822027114892 3 0,020979991419945 -3397,719031584525 4 0,003561687956111 -3397,716620516149 5 0,000591506681447 -3397,716599152711 item Dificuldade Std. Erro WMS Std. WMS UMS Std. q1 UMS -0,40 0,08 0,85 -4,32 0,84 -2,86 Q2 0,11 0,08 1,03 1,04 1,05 1,04 Q3 -1,36 0,10 0,93 -1,39 0,86 -1,39 q4 0,49 0,08 0,99 -0,25 1,02 0,38 q5 1,66 0,09 0,93 -1,54 1,02 0,28 Q6 0,82 0,08 0,93 -2,05 0,95 -0,82 Q7 1,37 0,09 1,10 2,42 1,17 1,99 Q8 -1,87 0,11 0,77 -3,81 0,85 -1.14 q9 -0,81 0,09 1,04 1,04 1,13 1,66 escala de qualidade ESTATÍSTICAS Estatísticas Itens Pessoas Observado Variance 1,3031 1,4411 observado Std. Dev. 1,1415 1,2005 Erro quadrático médio 0,0080 0,7097 MSE raiz 0,0894 0,8425 Variância ajustada 1,2951 0,7314 Std ajustado. Dev. 1,1380 0,8552 Índice de Separação 12,7235 1,0151 Número de Estratos 17,2980 1,6868 Fiabilidade 0,9939 0.5075 Pontuação Theta Std. Err Como mencionamos anteriormente, a formulação de bayesmh do modelo de Rasch estima os parâmetros específicos de item e de pessoa em comum. As estimativas bayesianas dos parâmetros devem ser razoavelmente próximas das obtidas usando a estimativa de máxima verossimilhança conjunta. No entanto, algumas diferenças são permitidas devido ao uso de distribuições informativas anteriores na especificação do modelo bayesiano. As estimativas que você relata utilizando o comando raschjmle são significativamente diferentes. Eu acredito que a razão para isso é que as estimativas raschjmle 8216s são centradas. Por exemplo, se eu centrar as estimativas médias posteriores relatadas por bayesmh os resultados parecem concordar. Abaixo eu mostro toda a especificação do modelo bayesiano semente 14 bayesmh q (1 (-)), probabilidade (logit) /// redefinir (diff: i. item) redefinir (subj: i. id) /// anterior (0, 1)) /// anterior (, normal (0, 1)) /// exclude () burnin (5000) dots saving (sim1, replace) Com as seguintes linhas de código, Item dificuldades e lista-los. Matriz mitem e (média) clear svmat mitem, name (item) summ item, meanonly gen citem item - r (média) lista 82128212821282128212821282128211 item1 citem 82128212821282128212821282128211 1. -.6146172 -.4006386 2. -104734 .1092446 3. -1.578288 -1,364309 4. .2841987 .4981773 5. 1.444101 1.65808 82128212821282128212821282128211 6. .6083501 .8223287 7. 1.159187 1.373166 8. -2.090234 -1.876255 9. -1.033772 -.8197934 82128212821282128212821282128211 Obrigado novamente para as informações adicionais. Eu pensei que pode ter havido diferenças mais substanciais entre os algoritmos MLE marginais e conjuntos para estimar os parâmetros item e pessoa, mas isso definitivamente ajuda muito. Obrigado novamente, Billy Oi, eu realmente aprecio este post eo trabalho que você fez nesses modelos. Eu tenho um problema muito mais simples. Ao tentar configurar um modelo bayesiano IRT simples com dados que tem 37.000 observações com 10 perguntas cada. Toda vez que eu tento executar o 1PL descrito acima, recebo o seguinte erro: ID da variável está faltando ou contém valores não inteiros r (198). Tenho certeza de que isso tem algo a ver com a forma como o id está sendo armazenado, mas ainda não descobri como corrigir isso. Nice apresentação no Stata conferência Nikolay. Definitivamente cool para obter um pouco mais explicação das coisas e ver outros usos das técnicas.
No comments:
Post a Comment