DR. RON MARTINEZ
  • Home
  • About
  • Research and Publications
    • Publications
  • Classes
    • Universidade Federal do Paraná >
      • PRPPG7000 Escrita Academica em Ingles 2019
      • Scientific and Technical Translation in English
      • Writing IV 2017.1 (HE285)
      • Oral IV 2016.2 (HE281)
      • Writing II 2016.1
    • University of Oxford
    • San Francisco State University
    • University of Nottingham
  • Contact

INSTRUMENTOS DE PESQUISA EM LINGUÍSTICA APLICADA

PROF. DR. RON MARTINEZ

CONTACT

USO DE FERRAMENTAS 'CORPUS' PARA COMPLEMENTAR ANALISE QUALITATIVA

10/28/2015

10 Comments

 

1. O texto

Vamos continuar usando o corpus dos depoimentos de 11 de setembro.  (Baixar versão Word aqui.)

2. Leitura qualitativa + geração de códigos

Assista primeiro o vídeo a seguir que mostra os passos básicas e algumas dicas para trabalhar qualitativamente com textos, gerando códigos.

3. O uso de corpus como instrumento de pesquisa: conceitos importantes

Assista o seguinte vídeo para aprender um pouco sobre, especialmente, a relevância do conceito de frequência no uso de corpus.

4. Usando 'AntConc' para ver uma lista de frequência

Assista o vídeo a siga os passos.  Não se esqueça de anotar as suas observações ao longo do processo; qualquer ideia o 'insight' que tiver pode ser relevante depois, para o último passo desta sequência de atividades, quando você vai gerar uma nova lista (ou modificar a original) dos códigos que você julga como relevantes para o texto de depoimentos sobre o 11 de setembro.

5. Usando AntConc para gerar uma lista das frases mais comuns

Assista o vídeo a siga os passos.  Não se esqueça de anotar as suas observações ao longo do processo; qualquer ideia o 'insight' que tiver pode ser relevante depois, para o último passo desta sequência de atividades, quando você vai gerar uma nova lista (ou modificar a original) dos códigos que você julga como relevantes para o texto de depoimentos sobre o 11 de setembro.

6. Usando AntConc para explorar comportamento léxico de collocation

Assista o vídeo a siga os passos.  Não se esqueça de anotar as suas observações ao longo do processo; qualquer ideia o 'insight' que tiver pode ser relevante depois, para o último passo desta sequência de atividades, quando você vai gerar uma nova lista (ou modificar a original) dos códigos que você julga como relevantes para o texto de depoimentos sobre o 11 de setembro.

7. Identificação de palavras-chave usando 'LexTutor'

Assista o vídeo a siga os passos.  Não se esqueça de anotar as suas observações ao longo do processo; qualquer ideia o 'insight' que tiver pode ser relevante depois, para o último passo desta sequência de atividades, quando você vai gerar uma nova lista (ou modificar a original) dos códigos que você julga como relevantes para o texto de depoimentos sobre o 11 de setembro.

8. Síntese das analises qualitativa ('open') e quantitativa (corpus)

  1. Usando as suas anotações produzidas ao longo da sequência de atividades de corpus, veja se tem códigos que você acha interessante acrescentar à lista original que você produziu, e/ou modificar nessa lista.  Depois, escreva uma descrição (máximo 2 páginas) de como você chegou a esses códigos.
  2. Abaixo (no link "Comments"), escreva um pouco sobre as suas impressões gerais do uso de corpus como instrumento de pesquisa (depois de terminar todos os passos acima).
  3. Tragam suas análises e códigos para a próxima aula, em versão impressa. 


9. Analise de diferenças entre depoimentos de mulheres e os de homens.  (A ser explicado pelo Skype.)

10. Aplicação dos códigos: usando CAQDAS (computer assisted qualitative data analysis software).

  1. Baixe o software gratuito: http://atlasti.com/free-trial-version/
  2. Siga os dois vídeos (abaixo) e insira seus códigos (+ explicações dos mesmos, conforme explicado no primeiro vídeo).
10 Comments
Katia
11/5/2015 09:20:28 am

Eu achei que a análise de corpus agregou bastante ao processo de codificação dos dados porque permite uma visão mais sistemática de palavras-chave que podem ser relevantes. Realizar os passos pedidos na atividade foi muito tranquilo. Após este exercício, eu descartei um código e acrescentei mais três à lista de códigos obtidos inicialmente por open coding.

Reply
Ron
11/9/2015 05:21:52 am

Que legal, Katia -- a ideia era essa. Eu também acho que o sistema agrega bastante, e ainda acho que uma coisa (corpus) complementa (e não deve subtituir) a outra (open coding). Na verdade a técnica é pouco divulgada, e estou pensando em talvez escrever um paper sobre isso porque, quando falo da técnica para outros pesquisadores eles também querem saber mais e acham interessante. No seu caso, o uso do corpus ajudou você a acrescentar mais, e a até descartar um código -- esse depoimento já é valioso para esse paper! :-)

Reply
Aline
11/5/2015 06:32:04 pm

Gostei ferramenta, AntConc, pois facilita a identificação das ocorrências discursivas por todo corpus, o que ajuda a confirmar ou reorganizar certos códigos pré estabelecidos. Do mesmo modo, ajuda a identificar novos códigos. Elas podem ser usadas como ferramentas de suporte para organização do corpus e das ideias para a análise, mas não como instrumentos analíticos per se, pois, no nosso caso, LA, não será a frequência que vai determinar a relevância da análise. Por isso, acredito, que o corpus precisa ser inteiramente conhecido pelo pesquisador antes do uso dessas ferramentas, AntiConc e Lextutor.

Reply
Aline
11/5/2015 06:34:17 pm

Elas = "AntConc" e "Lextutor" ;)

Reply
Ron
11/9/2015 05:25:08 am

Uma observação muito válida, Aline, e eu condordo plenamente. No caso de vocês, vocês já tinham algum conhecimentoo sobre o contexto (até por ser um acontecimento histórico), e já ter lido o corpus (ou uma boa parte dele) qualitativamente antes de usar os instrumentos de corpus. Acho que essa sequencia, por tanto, open coding seguido de corpus, é um método mais válido -- como você observou.

Reply
Carla
11/10/2015 02:03:35 pm

Olá, gente,
Também gostei de utilizar o AntConc e o outro site para pensar nas palavras e expressões e, assim, codificar os dados e compará-los com o processo anterior.
Achei bem tranquilo de mexer - e olhem que não sou lá muito boa com as tecnologias. Os vídeos, claro, ajudaram. Depois do processo todo, incluí uma categoria que não tinha pensado primeiramente.

Reply
Bruna
11/11/2015 01:43:37 pm

Olá,
Também achei tranquilo trabalhar com o software AntConc (mas confesso que os vídeos ajudaram muito) e com certeza a ferramente agregou bastante ao processo de codificação. Ao final desta etapa acrescentei duas categorias novas. Apenas um comentário em relação ao programa online Wordle.net: fiquei pensando que seria interessante iniciar o trabalho pela nuvem lexical, desta forma faríamos uma leitura mais "guiada" para o open coding.

Reply
Betty
11/11/2015 03:07:44 pm

Nunca tinha trabalhado com corpus . Sem os tutoriais dos vídeos, certamente estaria no ‘ensaio e erro’, pois não sou nada esperta em tecnologia. Segui a ordem dos vídeos. Iniciei pelo axial coding, no qual demorei bastante, mudei bastante e , apesar de não ter feito os 50 depoimentos, cheguei à metade, o que deu informação e experiência para que me sentisse em um caminho guiado, que ainda precisando de ajuda, vislumbra um potencial para trabalhos futuros de mesma natureza. A nuvem lexical me deixou encantada pela praticidade e funcionalidade. Tal como a Bruna, tive o insight de que iniciar pela nuvem de palavras facilita, e muito, a construção de eixos de investigação. Quanto ao AntConc e ao Lextutor, assiti ao vídeo mais de uma vez cada um, fiz anotações dos movimentos das etapas e consegui reproduzi-los (quase) por mim mesma. Dessa forma, acho que, mais do que ter chegado a um código satisfatório para o texto dos depoimentos, consegui ver nas ferramentas técnicas interessantes quando tiver um objetivo claro de pesquisa. Partindo desse entendimento, acho que “ practice will make perfect”.

Reply
Camila Bom de Oliveira
11/12/2015 04:07:11 am

O mais interessante para mim foi o fato de que, pelo que entendi, a análise não precisa ser necessariamente quantitativa OU qualitativa, mas que podem complementarem-se. Em um dos vídeos percebi que a análise de corpus (quantitativa) gerou um código bastante útil para a análise qualitativa!

Reply
Thiago
1/8/2016 03:20:49 am

Oi gente,

tentando recuperar o tempo perdido e fazer as atividades previstas na disciplina. Eu, pessoalmente, achei os comentários qui muito interessantes. Concordo que as ferramentas apresentadas possibilitam uma outra abordagem ao material, uma abordagem que complementa a primeira leitura e os primeiros códigos criados pelo pesquisador. Principalmente os N-Grams possibilitam detectar o uso de palavras em contextos que potencialmente tratam de uma mesma temática. Isso traz a tona características do material, que talvez já tivessem sido detectadas na primeira leitura, mas que se cristalizam de maneira mais objetiva e palpável.

Um forte abraço a todos,

Thiago

Reply



Leave a Reply.

    Relevant links

    Example of e-Portfolio

    E-Portfolio Checklist 2016

    "Shut up and listen!"
    

    Archives

    October 2017
    October 2016
    September 2016
    August 2016
    November 2015
    October 2015
    September 2015
    August 2015

    Caragarajah, S. (2011)  Codemeshing in Academic Writing (good example of how to present comments from participants)
    Dornyei (2003)

    'Making Meaning from Your Data' -The Three Cs of Data Analysis

    Guidelines for Video Research in Education

    Exemplo 1 de "Observation Schedule" (low inference)

    Exemplo 2 de "Observation Schedule" (high inference)

    Exemplo 3 de "Observation Schedule" (EMI)


    'Applied Linguistics: A Theory of the Practice' (Kramsch, 2015)
    Applied Linguistics Past and Future (Shuy 2015)

    Categories

    All
    Questionnaires: Case Studies

    Useful links

    Iris Database

    ​Weebly login do aluno

    RSS Feed

Powered by Create your own unique website with customizable templates.
Photo used under Creative Commons from jfcherry