Publicidade

Arquivo do Autor

sábado, 16 de novembro de 2019 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 15:31

Algoritmos e profissões

Compartilhe: Twitter

 

Se a era atual tem um nome, esse nome é “algoritmo”. Trata-se de uma sequência de instruções que informa os computadores o que eles devem fazer. Computadores são compostos de muitas chaves minúsculas, os transistores, e os algoritmos ligam e desligam tais chaves bilhões de vezes por segundo.

 

A novidade mais recente é que não precisamos mais gerar um algoritmo por tarefa, substituindo essa missão pela construção de máquinas que aprendem (em inglês, machine learning). Machine learning é um subcampo de inteligência artificial dedicado ao desenvolvimento de algoritmos e técnicas que permitem ao computador aprender continuamente, aperfeiçoando seu desempenho.

 

Os algoritmos controlam os voos, gerenciam nossas contas bancárias, gerenciam ambientes de aprendizagem, detectam enfermidades etc. Esses algoritmos, progressivamente, operam por aprendizado a partir de trilhas de dados que deixamos nas interfaces digitais. Assim, somos observados, imitados e mensurados em nossos comportamentos.

 

À medida que, cada vez mais, os algoritmos controlam nossas vidas, a pergunta essencial é: quem são os profissionais que lidam com essas tarefas? Há um conjunto aberto de profissionais associados a essas áreas e a título de ilustração apresentarei, a seguir, alguns deles. Mas, trata-se de lista, declaradamente, incompleta.

 

De forma simplificada, os coders e programadores podem ser formados em ensino médio profissionalizante ou como tecnólogos de nível superior. Engenheiros ou cientistas de dados demandam cursos superiores. Um conjunto adicional de profissionais, tal como arquitetos de sistemas, em geral, se formam em nível de pós-graduação. A acentuada dinâmica desta área sugere que boa parte deles será formada via educação informal, distante das instituições de ensino, como nós as conhecemos atualmente.

 

Os coders escrevem códigos simples, sem o compromisso de planejar e desenhar programas mais complexos, gerando resultados de interesse prático. Em algumas circunstâncias, os coders sequer participam da programação principal, ainda que colaborem nos scripts adicionais que automatizam algumas tarefas específicas.

 

Se o coder passa a dominar de forma diferenciada e mais aprofundada uma ou mais linguagens de programação computacional, ele vai se transformando em um programador.  Os programadores, mais do que seguir receitas, escolhem ingredientes e geram produtos inovadores, o que envolve, normalmente, um nível adicional de originalidade. Trata-se de criar com lógica, via uma linguagem específica de programação.

 

Os engenheiros ou cientistas de dados estão entre os profissionais mais cobiçados do mercado atualmente. Estes profissionais combinam habilidades de programação, ciência da computação, estatística e conhecimento específico do negócio ou da missão. Tal perfil é difícil de ser encontrado, especialmente no mercado brasileiro, o que tem resultado num aumento considerável nos salários pagos aqueles que dominam mais profundamente a arte da análise de dados.

 

A maioria dos gestores não faz ideia do tesouro que os dados representam e bastante comum serem desperdiçados sem uso. A correta coleta, organização e o domínio das análises fazem do engenheiro de dados uma figura essencial em qualquer campo de atividade atualmente. Os engenheiros de dados transformam os dados brutos, desde bancos de dados transacionais até arquivos de texto, em formatos que permitam ao demais profissionais associados começarem seus trabalhos.

 

Os arquitetos de sistemas, por sua vez, lidam especialmente na interface dos aplicativos ou dos softwares e suas customizações no atendimento de clientes e na consecução de tarefas.  Por exemplo, na IBM os clientes são tipicamente corporações, sendo estes profissionais os principais responsáveis por garantir que as soluções durem por certo prazo, dando o devido suporte nos elementos de designer de estruturas de softwares.

 

Na verdade, a maior parte das profissões associadas ao mundo dos algoritmos sequer tem nome ainda, muito menos conhecemos os seus respectivos detalhamentos. Ingressamos aceleradamente em uma nova era, com consequências econômicas sociais e educacionais profundas. O quanto antes ousarmos tentar compreender melhor.

 

—————–

Ilustração do Jornal “The Guardian”. Link: https://amp.theguardian.com/us-news/2017/jun/26/jobs-future-automation-robots-skills-creative-health

Autor: Tags: , , , , , , ,

terça-feira, 15 de outubro de 2019 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 10:30

QUALIDADE EM EDUCAÇÃO A QUALQUER DISTÂNCIA

Compartilhe: Twitter

 

 

Fredric Litto (1) e Ronaldo Mota (2)

 

A Educação a Distância (EAD) é, usualmente, caracterizada como sendo a modalidade na qual os procedimentos educacionais são mediados por tecnologias, em contextos nos quais os educandos e os educadores estão separados, espacial ou temporalmente.

 

EAD é mundialmente reconhecida como ferramenta educacional estratégica na ampliação do acesso e da permanência, em especial no ensino superior. O que a Inglaterra implantou, por correspondência,muitas décadas, atualmente,as grandes universidades do mundo (Harvard, Cambridge e MIT, entre outras) o fazem via digital. Nas últimas décadas, a demanda por oportunidades educacionais tem crescido exponencialmente, graças sobretudo ao uso das tecnologias digitais e das metodologias inovadoras associadas. Felizmente, o Brasil está ativo e acompanhando, com garantia de qualidade, esse movimento educacional.

 

A modalidade EAD no Brasil foi assegurada na Lei de Diretrizes e Bases da Educação/LDB (Lei nº 9.394, de 20 de dezembro de 1996), que estabeleceu, no artigo nº 80, a possibilidade do seu uso orgânico em todos os níveis e modalidades de ensino. O Decreto nº 2.561, de 1998, que definiu parâmetros de políticas de garantia de qualidade na EAD, e o Decreto nº 5.622, de 2005, que regulamentou o artigo nº 80 da LDB, funcionaram como diretrizes para a publicação dos referenciais de qualidade em 2007.

 

Em 2017, a legislação sobre a EAD reorganizou a abertura de cursos, flexibilizou a oferta e possibilitou a ampliação do acesso. O Decreto nº 9.057, de 25 de maio de 2017, e a Portaria MEC nº 11, de 20 junho do mesmo ano, deram nova dimensão à modalidade. A Portaria permitiu às instituições criarem cursos de EAD, de acordo com sua organização administrativa, conforme os resultados obtidos no Conceito Institucional.

 

A partir da definição e do cumprimento de cargas didáticas suficientes de interação, acompanhadas de abrangência e profundidade adequadas, estão dadas as bases de garantia de qualidade na modalidade. Particularmente, em cursos das áreas de saúde, engenharias e outros é previsto, e demanda ser cumprido, um conjunto de atividades “mão na massa”, integralizando cargas horárias presenciais bem definidas.

 

Quanto às inovações mais recentes, incluindo a autorização para o uso de até 40% em EAD da carga didática total na maioria dos cursos presenciais (Portaria MEC nº 1.428, de 29 de dezembro de 2018), visam avançar na consolidação de um modelo híbrido que integre as boas práticas do presencial com o virtual, estimulando novas práticas pedagógicas, calcadas na real possibilidade de uma educação personalizada de qualidade. Via trilhas educacionais customizadas, podemos possibilitar que todos aprendam, que todos aprendam o tempo todo, e que cada qual aprenda de maneira própria e única.

 

Estatísticas recentes sobre cursos de graduação mostram que a EAD, em termos de oferta de vagas, ultrapassou o número de oferta de vagas presenciais, o que é fruto do reconhecimento da modalidade, especialmente por parte daqueles que sofrem impedimentos de toda ordem e que encontram na EAD compatibilidade com seu estilo de vida, incluindo custos menores e flexibilidade de tempo e de espaço para estudar. De forma diferenciada, se comparada à educação presencial, EAD permite, via trilhas educacionais especialmente desenhadas, a inclusão de pessoas com necessidades especiais, moradores de regiões distantes ou cidadãos com complexas disponibilidades  de horário ou local.

 

Caminhamos em direção à formulação de uma educação flexível e híbrida que conjugará elementos das duas modalidades de ensino, presencial e a distância. Estamos aprendendo aatender, com qualidade e de forma personalizada, às múltiplas demandas que respeitem as particularidades e as peculiaridades de cada educando, em seu contexto educacional específico, estabelecendo máxima compatibilidade com um cenário de educação permanente ao longo de toda a vida.

 

(1) Presidente da Associação Brasileira de Educação a Distância/ABED e professor emérito da Universidade de São Paulo/USP.

(2) Membro da Academia Brasileira de Educação, diretor científico da Digital Pages e ex-secretário de Educação a Distância do MEC.

—/—

Quadrinho ilustrativo de www.willtirando.com.br

 

 

 

Autor: Tags: , , , , , ,

sexta-feira, 11 de outubro de 2019 aprendizagem, Educação e Tecnologia, Ensino Superior | 17:11

ENSINAMENTOS CONTEMPORÂNEOS DA GRÉCIA ANTIGA

Compartilhe: Twitter

 

 

Parmênides nasceu em Eleia, na Grécia Antiga, por volta de 530 a. C., e a sua filosofia se baseia na concepção de que o ser é único, imutável, infinito e imóvel, sendo sempre, na sua essência, idêntico a si mesmo. O filósofo também defendia que a aparência sensível do mundo não existe. O que o filósofo quer dizer é que o nosso conhecimento sensitivo das coisas só nos dá uma ilusão do movimento, uma aparência, sendo que apenas o conhecimento intelectivo permite que se conceba a realidade como idêntica a si mesma.

 

Ele foi, portanto, um forte defensor da unidade, do imobilismo e da existência de um ser único e soberano. Para Parmênides, havia uma espécie de organização racional do universo que era infinita, indivisível, imutável e imóvel, centrada no que ele chamou de “ser”. Tudo o que existia possuía o “ser” dentro de si.

 

Parmênides teve forte influência sobre a filosofia platônica e as gerações que se sucederam desde então. Ele tentou ordenar a realidade a partir de duas classes: “aquelas que são” e “aquelas que não são”. Por exemplo, ao observar a luz e a escuridão, notou que a escuridão nada mais era do que a negação da luz. Após denominar esses pares de opostos como “ser” (positiva) e “não-ser” (negativa), postulou também que “o ser é e o não-ser, simples ilusão, não é”.

 

Heráclito, contemporâneo de Parmênides (embora não haja registro de terem se encontrado), nasceu em Éfeso, digno representante da escola jônica. Heráclito, diferentemente, de Parmênides, não considerou a unidade material e o imobilismo como elementos originários de tudo. Pelo contrário, enxergava o mundo e a natureza como em constantes movimentos. Tudo muda o tempo todo, sendo o fluxo perpétuo, constante movimento, a principal característica da natureza. Seu pensamento foi eternizado na imagem de que “uma mesma pessoa não pode se banhar duas vezes no mesmo rio, dado que, na vez seguinte, nem ela e nem o rio seriam os mesmos”.

 

Parmênides e Heráclito se transformaram em fontes diversas e conflitantes acerca da noção da essência do ser. O que era a essência do “ser” de Parmênides é desprezado por Heráclito, adepto a mutabilidade constante e a relação mediada por um duelo permanente entre contrários, base do que seria conhecido, posteriormente, como “dialética”. Assim, enquanto Parmênides defende que não há mudança, pois as essências permanecem sempre as mesmas, Heráclito defende que a única essência é a mudança contínua das coisas, dos seres.

 

Fazendo um curso sobre Nietzsche com a filósofa Viviane Mosé, tive a oportunidade de repensar sobre este conflito entre um Parmênides, defensor de imobilismo radical e, de outro lado, um Heráclito propugnando um fluxo transformador permanente. Mais especialmente acerca de quanto esses dois caminhos, bastante distintos um do outro, podem colaborar na percepção do mundo contemporâneo.

 

Além disso, como físico, é possível interpretar a grande virada do início do século XX, com o advento da física quântica, em oposição ao mundo newtoniano, como parte do conflito acima descrito. Nietzsche pode ser visto como um visionário de algo que só viria a acontecer nas décadas seguintes à sua morte ao final do século XIX.

 

A física newtoniana se ancora no amadurecimento do método científico, representado por Galileu no século XVII (observação, lógica e experimentação). Newton transcende Galilei, introduzindo o cálculo diferencial e integral, expressando o comportamento da natureza por leis. Leis que regem a natureza, que nos contam, com precisão, como ela se comportará, independente de realizarmos a experiência. São as leis da mecânica, da termodinâmica e do eletromagnetismo, entre outras.

 

Na segunda metade do século XIX, período de Nietzsche e tantos outros pensadores relevantes, há uma crença enorme na potência da chamada ciência moderna, ao ponto de alguns acreditarem que as ciências humanas poderiam reproduzir, em termos de método, aquilo as ciências da natureza teriam atingido. Nietzsche reconhecia naquela ciência as marcas de Parmênides e a visão do ser imutável. Assim, sua crítica à religião e à moral incluía, com o mesmo vigor, sua oposição à ciência da época. Segundo ele, ela seria incapaz de contemplar o fluxo perpétuo, a impermanência do ser e a dialética de Heráclito.

 

A Física Clássica, grosso modo, parte da existência em si do objeto, o ser em si, cabendo ao investigador extrair dele suas propriedades, tipicamente inerentes e imutáveis. Tão mais adequado o processo quanto mais o observador mantiver distância da coisa a ser observada, sendo a impessoalidade e a imparcialidade condições absolutamente indispensáveis ao correto processo científico.

 

A Física Quântica, surgida com a inauguração do século XX, apresenta uma nova perspectiva da ciência, impactando e aprofundando o método. O objeto, a coisa em si, carece de significado antes que alguma interação com ele ocorra. O ser não existe a priori. Ele só é passível de conhecimento à medida que com ele interagimos, medimos, testamos etc. Rigorosamente, a única aceitável definição do ser está associada aos resultados frutos das múltiplas experiências que tivemos (e medimos) com o objeto. Fora desse contexto, ele é uma abstração. Da mesma forma, observador e objeto observado se acoplam, sendo indissociáveis um do outro, relacionados entre si via uma linguagem, a linguagem construída pela Física Quântica.

 

Claro que se trata de algo muito mais sofisticado e profundo do que aquilo que cabe num parágrafo sobre algo tão complexo. A simplificação somente pretende evidenciar que a mudança de abordagem é significativa. Enquanto a clássica pretende e acredita na possibilidade da descrição perfeita do objeto em análise, a quântica, de certa forma, se permite ser vista como uma linguagem, com forte ancoragem experimental. Algo que descreve a relação entre o observador e aquilo que é observado, contemplando nas suas ferramentas indissociáveis estatísticas, indeterminações e incertezas naturalmente incorporadas. Isso tudo sem prejuízo de se saber mais do que se sabia antes. Mais do que isso, entender coisas que não seriam passíveis de serem compreendidas antes.

 

Guardadas as peculiaridades e particularidades dos tempos e das abordagens, podemos associar a Ciência Moderna, moldada na Física Clássica, como uma filha dileta de Parmênides. Por sua vez, a Física Quântica, inspirado da visão contemporânea de ciência, claramente, parece estabelecer uma coerência mais próxima com Heráclito.

 

Os tempos atuais, palco do pós-moderno, fruto da sociedade pós-industrial e inundados de fake news e de pós-verdades, podem ser vivenciados tanto à luz de Parmênides como, alternativamente, inspirados por Heráclito. A escolha é nossa. Na primeira perspectiva, tendemos a evidenciar a ausência de vida, o predomínio da ansiedade, onde, provavelmente, as frustrações são quase inevitáveis. Difícil não se sentir horrorizado sobre o presente e mais ainda sobre o futuro. Tudo parece caminhar linearmente para o fracasso, enquanto civilização.

 

Do ponto de vista de Heráclito, calcado em um universo em expansão, cuja maior característica é o fluxo, que permite até mesmo que, finda a expansão, ele se contraia novamente e repita ciclos intermináveis, se for o caso. Heráclito está presente nas palavras da arte de Lulu Santos: “…nada do que foi será, de novo do jeito que já foi um dia; tudo passa, tudo sempre passará; tudo que se vê não é igual ao que a gente viu há um segundo….”

 

Claramente, os dilemas e os desafios não se resolvem pela simples mudança do olhar, mas, certamente, entender os conflitos nas suas dimensões históricas nos consola e, se possível, ilumina. Ao menos sabemos que nós, humanos, nos permitimos enxergar as mesmas coisas de múltiplas maneiras diferentes. Cada qual escolhe suas armas interpretativas e suas bagagens de sobrevivência que permitam surfar nas ondas do mar da vida. Ou, alternativamente, com as ondas briguem, com poucas chances de vencer o mar…

 

—-

 

Figura: Monte Olimpo – representação de Zeus na Grécia Antiga

Autor: Tags: , ,

domingo, 1 de setembro de 2019 aprendizagem, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 16:58

O QUE O BEBÊ VAI SER QUANDO CRESCER?

Compartilhe: Twitter

 

Será possível prever o sucesso educacional de um recém-nascido? A resposta é complexa, mas há contribuições recentes interessantes acompanhadas de um entendimento crescente sobre o assunto.

 

O tema DNA e desempenho escolar, associado à área que conhecemos como edugenômica1, é extremamente polêmico, com enormes chances de compreensões indevidas, algumas com equivocados elementos de eugenia. Porém, o risco é ainda mais grave se desconhecermos completamente os debates em curso e deixarmos de analisar e contribuir com os recentes avanços científicos na área.

 

Pesquisadores têm demonstrado que os genes do bebê influenciam significativamente o seu posterior desempenho ao longo da vida escolar. De fato, há estudos demonstrando que aproximadamente dois terços das diferenças no sucesso escolar podem ser explicados pela genética. Por exemplo, em 2016, cientistas publicaram na prestigiada revista Nature haver identificado 74 posições de genes que permitem prever, ainda que parcialmente, quão longe alguém poderia ir em sua vida escolar2.

 

Mais recentemente, Kaili Rimfeld et al.3 estudaram o desempenho escolar, a partir de uma amostra de 6.000 pares de gêmeos nascidos no Reino Unido. A adoção de gêmeos decorre do fato que, quando idênticos, eles compartilham 100% dos genes, enquanto, quando não idênticos, o compartilhamento é da ordem de 50%, tal como entre dois irmãos quaisquer.

 

A amostra adotada contém gêmeos, tanto idênticos como não idênticos, morando em mesma casa e em casas diferentes, incluindo até irmãos adotivos, os quais desfrutam do mesmo ambiente sem qualquer compartilhamento de DNA. Os dados obtidos pelos autores mostram que, aproximadamente, 70% do rendimento escolar decorre de fatores genéticos, enquanto os aspectos ambientais respondem por algo da ordem de 25%. Os restantes 5% podem ser explicados, segundo os autores, por demais itens, tais como amigos e professores diferentes.

 

Para estabelecer correlações envolvendo sucesso escolar, é preciso definir um critério para o que seja sucesso educacional, além de escolher quais as variáveis mais relevantes a serem consideradas. Estudos recentes apontam que, entre as múltiplas variáveis, duas delas, aparentemente, se destacam sobre as demais. Uma delas é o status socioeconômico dos pais. A segunda variável é o DNA herdado, que, recentemente, tem sido evidenciado ter nível similar de relevância à primeira.

 

Os pesquisadores Sophie von Stumm et al.4, em artigo ainda não publicado, mas já disponibilizado, tratam da predição de sucesso educacional fazendo uso de consistentes dados de um representativo estudo sistemático de 15.000 pares de gêmeos nascidos na Inglaterra e País de Gales, entre 1994 e 1996. No caso, a análise foi baseada em 4.890 indivíduos de origem europeia, dos quais os dados genéticos e de status socioeconômicos foram utilizados. Os dois preditores selecionados, socioeconômicos e genéticos, foram estudados, em termos de correlação com sucesso escolar, para as idades de 7, 11, 14 e 16 anos. Todas as figuras apresentadas neste texto são extraídas desse preprint.

 

O preditor de status socioeconômico dos pais, SES (do inglês parent´s socioeconomic status), embute as qualificações educacionais de ambos os pais, suas respectivas posições ocupacionais e, particularmente, a idade da mãe dos gêmeos por ocasião de sua primeira gestação. O preditor SES, assumido como representando as vantagens ambientais e de riqueza, de fato, inclui, inexoravelmente, elementos hereditários genéticos, os quais precisam ser corrigidos (correção da ordem de 50%, a partir do estudo de gêmeos) para que eles não contenham as influências do DNA.

 

O preditor das influências do DNA, agregados via os conhecidos escores poligênicos no genoma amplo (em inglês, genome-wide polygenic scores, GPS), não se altera ao longo da vida, independente de condições ambientais. GPS é representado por um número baseado na variação em múltiplos espaços genéticos e suas associações em pesos. A técnica mais recente utilizada é baseada no estudo de associação genômica ampla (em inglês, whole genome association study, GWAS), o qual é uma análise observacional de variações genéticas em todo o genoma em diferentes indivíduos para conferir se alguma variante está associada a um determinado traço.  GWASs são, tipicamente, focados em associações entre polimorfismos de nucleotídeos simples e características.

 

Como principal critério de sucesso, foram adotadas as notas obtidas ao longo do período selecionado, em especial os resultados ao final do ensino obrigatório aos 16 anos, quando os alunos realizam o exame GCSE (em inglês, General Certificate of Secondary School), correspondente ao nosso ENEM (Exame Nacional do Ensino Médio). De acordo com os resultados obtidos na pesquisa referida, tanto para o SES como o GPS, as predições se mostraram efetivas, em termos de impactos no desempenho educacional, desde o primeiro ano da educação primária, sendo consistentes até a conclusão do ensino médio.

 

Entre os jovens com altos SES e GPS, 77% ingressaram na universidade, enquanto somente 21% com baixos SES e GPS seguiram o mesmo caminho. Os efeitos do status socioeconômico dos pais e aqueles decorrentes do DNA herdados podem ser isolados, resultando que o primeiro responde por 16% da variância observada (estatisticamente mensura quanto um resultado dista do valor médio esperado) e o segundo por 14%, valor bastante próximo do primeiro.

 

A Figura 1 mostra que a capacidade de previsão de sucesso educacional cresce continuamente ao longo dos anos estudados. Se a variável em estudo não tem impacto a correlação é zero. Se ela determina completamente a correlação é um. Os resultados mostram que a correlação para o preditor SES, dos 7 aos 16 anos, cresce de 0.31 até 0.48 (retirando a influência genética embutida, como estabelecido, resulta de 0.25 a 0.37). Para o preditor GPS, a correlação aumenta de 0.22 a 0.36, respectivamente.

Pode-se observar também que os escores GPS se mostram preditores mais efetivos de sucesso educacional na idade de 7 anos em crianças de famílias com baixo SES do que naqueles com SES mais altos.

 

Os autores demonstram que as implicações práticas dessas predições são mais evidentes nos casos extremos. Para o caso dos 16 anos, se dividirmos a amostras em dez partes iguais (decis), a partir dos mais baixos SES e GPS, a Figura 2 mostra o desempenho educacional, em termos dos desvios da média.

 

Observar que os resultados indicam que a diferença de desempenho entre os extremos atinge 1,5 ponto para SES e 1,2 para GES. Em termos efetivos de conceitos, isso equivale a variação do conceito C- para A, no caso decorrente da amplitude SES, e do conceito C+ para A-, no caso em função da amplitude GPS.

 

A Figura 3(a) mostra, em termos de número de indivíduos na faixa de 16 anos, os desempenhos para os decis com maiores e piores GPS. Fica evidente a significativa superposição (área cinza mais escura). Observou-se que 9% dos indivíduos do decil com GPS mais baixo demonstraram desempenhos acima da média dos indivíduos do decil com GPS mais alto. Inversamente, 10% daqueles do decil mais alto registraram desempenhos inferiores à média do decil com GPS mais baixo.

Análise semelhante para o preditor SES, conforme mostrado na Figura 3 (b), os percentuais correspondentes observados foram, respectivamente, 5% e 3%.

A Figura 4 evidencia que ao longo do percurso educacional entre 7 e 16 anos, ambos os preditores atuam continuamente, sendo que, naturalmente, seus efeitos são amplificados quando superpostos. Observar, como destaque, o fato que crianças com altos GPS tendem a compensar, relativamente, baixos SES. Esse fenômeno é mais evidente ainda para crianças com baixos GPS e altos SES.

 

Na região mista, onde os preditores são opostos, para aqueles com altos GPS é possível compensar os baixos SES, tal que que a chance de ingressarem na universidade é ampliada de 21% (baixos SES e GPS) para 47%. Para aqueles com baixos GPS, eles podem compensar mais ainda tendo altos SES, resultando que 62% ingressam no ensino superior. Lembrar que, para efeito comparativo, para altos GPS e SES, 77% vão para universidades.

Portanto, a principal conclusão dos pesquisadores é que a influência do DNA do bebê, herdado geneticamente, expresso no preditor GPS, é poderoso indicador do futuro sucesso escolar, sendo aproximadamente da mesma ordem do preditor socioeconômico dos pais, via o preditor SES.

 

Além disso, testes de DNA dos bebês, em princípio, podem identificar eventuais riscos de desenvolvimento de dificuldades em leitura, ou outras áreas de aprendizagem, permitindo intervenção educacional o mais cedo possível. Ou seja, trilhas educacionais personalizadas podem ser construídas levando em conta características genéticas determinadas previamente.

 

É preciso alertar que os estudos apresentados se limitam a um grupo específico e um critério de sucesso educacional é definido, baseado em notas escolares de 7 a 16 anos, especialmente associados ao ingresso no ensino superior.

 

O ser humano tem potencialidades, em termos de atributos e talentos, que não estão incluídos no escopo do trabalho específico aqui referido. Conhecer estes e outros resultados permite traçar estratégias que viabilizem democratizar oportunidades e minorar discrepâncias.

 

Por fim, cabe destacar que a amostra adotada, em tese, poderia ter contemplado quatro meninos de classe média baixa de Liverpool, os quais teriam SES e, talvez, GPS, cumulativamente baixos. Provavelmente, teriam confirmado a baixa expectativa de sucesso educacional. Mesmo assim, certamente, nenhum outro indivíduo da amostra de milhares selecionados teria chegado próximo ao sucesso, no sentido amplo da palavra, que os Beatles tiveram, consagrando-se como um dos maiores fenômenos de todos os tempos.

 

Aqueles bebês de Liverpool, bem como tantos outros exemplos semelhantes, não invalidam os resultados da pesquisa, mas chamam a atenção dos pesquisadores de que eles, necessariamente, enxergam somente traços simples ou elementos parciais de realidades humanas, as quais são, de fato, bem mais complexas.

 

 

Referências:

[1] Ronaldo Mota, “Educational genomis: academic achievements and DNA”, Brazil Monitor, 21 de fevereiro (2018). Acessível em: http://www.brazilmonitor.com/index.php/2018/02/21/educational-genomics-academic-achievements-and-dna/.

 

[2] Aysu Okbay et al., “Genome-wide association studu identifies 74 loci associated with educational attainment”, Nature 533, 539-542 (2016), Acessível em: https://www.nature.com/articles/nature17671.

 

[3] Kaili Rimfeld et al., “The stability of educational achievement across school years is largely explained by genetic factors”, Science of Learning, (3), 16  (2018). Acessível em:  https://www.nature.com/articles/s41539-018-0030-0.

 

[4] Sophie von Stumm et al., “Predicting educational achievement from genomic measures and socioeconomic status”, preprint disponível em: https://www.biorxiv.org/content/10.1101/538108v1,

 

Autor: Tags: , , ,

segunda-feira, 19 de agosto de 2019 Sem categoria | 10:08

“NÃO SAIAM SEM NOS DAR TCHAU”

Compartilhe: Twitter

Vivemos, atualmente, no Brasil o risco efetivo de uma fuga em massa de cérebros, o que significaria cristalizar de vez nossa dificuldade extrema de competirmos, em termos de produtos e serviços, em escala global. Sem ciência, sem inovação e sem capacidade tecnológica instalada, estaríamos decretando nosso destino de sermos um país, na melhor das hipóteses, exportador de matérias-primas e de alimentos sem valor agregado. Assim, em um mundo impregnado pelos avanços das tecnologias digitais e suas consequências na vida cotidiana, ocuparíamos, enquanto nação, o espaço de meros passivos e acríticos consumidores.

 

Este êxodo em curso acelerado é fruto da queda nos investimentos em pesquisa, tanto pura como aplicada, e em inovação, seja ela tecnológica ou não. Na verdade, os dados apontam que as verbas destinadas às agências de fomento à pesquisa e à inovação têm caído nos últimos anos, mas, neste ano, a situação se agravou mais ainda. Em 2019, configura-se um contingenciamento de 30% no Ministério da Educação (MEC) e de 42% na pasta de Ciência e Tecnologia (MCTIC).

 

Um dos principais afetados é o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que provê parte relevante dos recursos à pesquisa científica. A título de exemplo, um dos programas mais estratégicos do CNPq é o de Bolsa de Pesquisa e Produtividade. O Programa é de custo relativamente barato, mas de estímulo crucial àqueles que se dedicam à produção de conhecimento de ponta no país. São menos de uma centena de milhares de pesquisadores, os quais passam pelo exigente crivo de comitês de especialistas, que respondem pela maior parte do conhecimento de fronteira que é produzido no cenário acadêmico nacional.

 

Com os cortes recentes, as bolsas de pesquisa têm sido pagas por suplementações emergenciais, mas sem nenhuma garantia da continuidade do próprio Programa. Ou seja, mesmo que, esperançosamente, findem por receber, os cientistas já se sentem suficientemente frustrados a ponto de procurarem, de imediato, oportunidades no exterior. São naturalmente atraídos por novos espaços onde possam, com maior tranquilidade, se dedicar às suas tarefas, que demandam condições adequadas de trabalho, persistência, concentração e respeito mínimo.

 

O Governo Federal prometeu elevar o investimento em ciência e tecnologia a 3% do PIB até o fim do atual mandato, mas a realidade, ao menos até aqui, tem sido bem diferente. O orçamento está em queda e distante de superarmos um percentual pouco acima de 1% do PIB, aqui considerando o total geral investido, tanto pela União como pelo setor privado.

 

Um apagão de investimentos, somado a um estado geral de desalento espalhado pela comunidade científica, podem, na prática, quebrar a coluna vertebral do sistema de ciência e tecnologia. Este sistema, construído a duras penas desde a década de 1950, tem sido um processo longo e a sua destruição pode ser muito rápida. Se isso vier a ocorrer, sua futura reconstrução é uma possibilidade ainda distante e incerta.

 

Curiosamente é sim da natureza da ciência desejáveis processos migratórios de cientistas. É muito salutar que pesquisadores tenham experiências em muitos países. Portanto, não é necessariamente ruim que nossos talentos passem períodos fora, muito menos que possamos atrair cientistas dos demais países. Ao contrário, nada mais salutar do que esses intercâmbios, mas eles devem ser frutos de um processo estimulado e planejado; jamais motivados, unicamente, pela desesperança com a realidade local. Pior, muitas vezes, sem deixar laços que permitam compartilhar de forma multilateral os avanços futuros no conhecimento.

 

Escrevo isso porque é preciso também ficar. Insisto porque é preciso, mais do que nunca, resistir. Tudo vale a pena, dado que há uma nação em construção que demanda ampliar seu nível de produtividade, que se reflita em produtos e serviços competitivos globalmente. Não temos como fazê-lo sem estarmos ancorados em profissionais preparados e fazendo uso e gerando produções científicas e tecnológicas no estado da arte.

 

Em outras palavras, em nome de quem fica, dado que, voluntariamente, ficaremos, por favor: “não saiam sem nos dar tchau”.

 

Autor: Tags:

sábado, 3 de agosto de 2019 Sem categoria | 02:37

A impermanência e a esperança

Compartilhe: Twitter

 

O mundo contemporâneo nos apresenta desafios complexos e, muitas vezes, nada confortáveis. O Brasil, neste contexto atual, torna alguns deles mais complicados ainda. Portanto, é bastante compreensível que a situação nacional desperte em cada um de nós algo que se aproxima de um sentimento de angústia e de falta de esperança.

 

As ações no sentido de alterar o quadro vigente, em todos os campos, são imprescindíveis e insubstituíveis. Mesmo assim, é fundamental que tenhamos todos a devida calma, permitindo que as mudanças ocorram e que elas sejam efetivas e adequadas. Para tanto, na expectativa da lucidez produtiva, há que se procurar inspiração onde quer que ela seja possível.

 

Não há receitas milagrosas ou únicas, tampouco soluções prontas, para tratar desse justificável sentimento de ansiedade com o estado atual das coisas. Neste sentido, entre várias possíveis abordagens, o budismo pode ser contributivo na percepção da realidade, via o conceito chave de “impermanência”.

 

No budismo é assumido que “nada é permanente, a não ser a própria impermanência das coisas”. Assim, o conceito de impermanência está estritamente ligado ao da variância do mundo. Ou seja, nada é permanente ao longo do tempo. Tanto as causas como as condições se alteram constantemente e o seu resultado, inexoravelmente, também varia. Este complexo conceito dentro da tradição budista pode contribuir com a adequada percepção da realidade atual.

 

A impermanência, a partir da ótica budista, deve ser vista conectada a um outro conceito, a onisciência, conhecida como “a plena atenção”.  A onisciência possibilitaria ao seu praticante perceber a impermanência do mundo e assim se libertar de apegos àquilo que em sua essência é variante, e, portanto, causa de sofrimento. Apesar das duas visões serem próximas, o fato de se introduzir o elemento de consciência no processo permite atingir a necessária percepção da variância do mundo.

 

Segundo o budismo, todos os fenômenos são impermanentes e nada no universo perdura para sempre, tudo se transforma continuamente e caminha para a própria dissolução. Consequentemente, é indicado não nos apegarmos demais às coisas, pois, afinal, todas as coisas são temporárias. O apego gerará, inevitavelmente, sofrimento, dado que nada perdura para sempre.

 

Os pensamentos acima podem ser traduzidos em três níveis de reconhecimento, detalhados, de forma simples, da seguinte maneira: i) As coisas não duram, isto é, elas, constantemente, surgem e desaparecem. As coisas boas acabam e as coisas ruins acabam, bem como as coisas neutras também acabam; ii) As coisas se transformam, mesmo enquanto elas duram. Elas nunca são as mesmas, elas estão em constante alteração; iii) As coisas não têm sustentação plena ou continuidade absoluta. Embora elas pareçam surgir e se transformar, de fato, esses fenômenos se dão por causas que, por sua vez, também estão sujeitas a transformações e surgimentos-desaparecimentos. Não há uma substância subjacente permanente que perdure por trás de qualquer ocorrência.

 

Claro que o budismo é muito mais profundo e complexo do que a simplificação superficial que este limitado espaço permite e que o autor, inexperiente no tema, alcança. A ideia, quase ingênua, é tentar contribuir para que a nossa quase generalizada angústia possa dar espaço a pensamentos racionais e a imprescindível esperança nas mudanças sempre em curso.  Neste momento da história política do país o que mais precisamos é de racionalidade ativa. Que a inspiração, calcada na sabedoria budista, possa ser, eventualmente, útil. Afinal, são reflexões milenares sobre este universo, felizmente em constante transformação.

 

Representações artísticas destes pensamentos podem ser encontradas em diversas obras. Unicamente como ilustração, destaco a canção “Como uma onda”, de Lulu Santos (1983). Quem tiver a oportunidade de rememorá-la agora perceberá que a arte pode ser mais eficiente do que todas estas palavras.

 

Autor: Tags:

terça-feira, 30 de julho de 2019 aprendizagem, Educação e Tecnologia, Inovação e Educação | 07:35

Metacognição é coisa de criança

Compartilhe: Twitter

 

Não há uma definição simples para metacognição. O prefixo grego “meta” induz que metacognição deva ir além da cognição ou tratar-se de reflexão sobre ela. Cognição, por sua vez, está associada, de maneira simplificada, ao processo de aquisição de conhecimento, baseado em um conjunto de habilidades mentais, entre elas, a memória.

 

Talvez pelo aspecto transcendente à cognição, muitos assumam que metacognição é coisa exclusivamente de adulto, gente madura e preparada. Porém, a máxima relevância educacional da metacognição é, surpreendentemente, para crianças e jovens.

 

As habilidades metacognitivas do aprendiz, em qualquer idade, incluem estimular a reflexão sobre a própria aprendizagem, implicando em autorreflexão e atividades, incluindo lúdicas, em equipe.  A prática de entender o outro, desde criança, promove a aprendizagem colaborativa, indispensável em um cenário de aprendizagem permanente ao longo da vida. Na fase pré-escolar, a família e o entorno social desempenham papel primordial. Consequentemente, em contextos em que a escolaridade dos pais torna difícil essa tarefa, políticas públicas específicas são imprescindíveis.

 

James Heckman, no ano 2.000, foi contemplado com o Prêmio Nobel de Economia por evidenciar a relação entre desigualdade social e o estímulo educacional a crianças de zero a cinco anos. Segundo Heckman, há forte correlação entre a criança adequadamente estimulada nessa fase e seu posterior desempenho escolar, sucesso profissional e menor envolvimento em crimes. Em outras palavras, quanto mais as crianças, de todas as classes sociais, adquirem as competências, tanto cognitivas como metacognitivas, menor tendem a ser as desigualdades sociais entre elas no futuro.

 

Lev Vygotsky (1896-1934) tratou dos processos de controle na aquisição do conhecimento que podem ser considerados precursores daquilo que vem a ser conhecido, atualmente, como metacognição. Particularmente, naquilo que ele denominava Zona de Desenvolvimento Proximal, a fronteira entre o conhecimento que o aprendiz pode atingir de forma independente e aquele que demanda orientação que interfere diretamente no processo. Assim, de forma programada, o docente ou os pais assumem a responsabilidade dos processos cognitivos até que as crianças ou os jovens se sintam, progressivamente, suficiente confortáveis em tomarem para si a gestão de suas próprias aprendizagens.

 

Na década de 1970, o psicólogo John Flavvel e outros pesquisadores retomaram de forma mais intensa esse debate, agora à luz da metacognição, a qual descreviam como sendo “o conhecimento acerca do próprio processo cognitivo”, ou, em outras palavras, “o aprender a aprender”. Posteriormente, o conceito foi ampliado para referir-se à consciência do educando acerca de seu conhecimento, incluindo suas convicções e a percepção de áreas a serem desenvolvidas. Nesse contexto, contemplando, especialmente, a sua habilidade de refletir sobre o planejamento, o gerenciamento, a avaliação e a definição consciente dos rumos da própria aprendizagem.

 

Inspirado pelos pensamentos de Vigotsky e Flavvel, David Perkins, na década de 1990, tratou do tema central do reconhecimento das quatro etapas da consciência do aprendiz sobre sua própria aprendizagem.

 

Aprendizes tácitos estariam associados a primeira etapa, quando eles ainda não têm consciência plena de desenvolvimentos metacognitivos, estando dispensados de pensar sobre uma estratégia particular de aprendizagem. Caracterizando-se esta etapa por estímulos aos desenvolvimentos baseados em espontaneidades intuitivas, incluindo atividades domésticas, leituras, brinquedos, desenhos etc.

 

Aprendizes conscientes diriam respeito à segunda etapa, quando já são capazes de generalizar ideias, explorar evidências, mesmo quando esses pensamentos ainda não são totalmente deliberados ou planejados.

 

Educandos estratégicos corresponderiam à terceira etapa, na qual eles já conseguem organizar conscientemente seus pensamentos, via solução de problemas, fazendo uso de classificações, evidências e tomadas de decisões.

 

Por fim, temos a última etapa, educandos reflexivos, aptos não só a refletirem sobre a própria aprendizagem enquanto ela se desenvolve, mas capazes de, à luz do sucesso ou insucesso das estratégias educacionais adotadas, revê-las e adotarem trilhas apropriadas alternativas.

 

As faixas etárias e os ambientes, escolares ou familiares, permitirão adaptações e ênfases em cada uma dessas etapas, mas a visão da importância de explorar processos metacognitivos é essencial para prepararmos profissionais e cidadãos capazes de enfrentar desafios, quaisquer que eles sejam.

 

Se o século passado demandava domínio de conteúdos, técnicas e procedimentos, muitos deles baseados em processos cognitivos simples, o mundo contemporâneo privilegia pessoas cujos processos formativos, desde a primeira infância, se vinculem a estimular a capacidade de aprender  a aprender continuamente, coerente com um ambiente de aprendizagem permanente ao longo de toda a vida.

 

Autor: Tags: , , , , , , , ,

quarta-feira, 10 de julho de 2019 Educação e Tecnologia, Ensino Superior, Inovação e Educação, Sem categoria | 10:29

Humanizando máquinas inteligentes

Compartilhe: Twitter

 

Humanos são humanos e máquinas são máquinas. Mesmo assim, a história humana pode ser contada a partir do uso de diversas ferramentas, as quais foram, no decorrer do tempo, se incorporando ao cotidiano, interferindo diretamente na evolução da espécie.

 

As múltiplas maneiras com que os humanos têm feito uso de diversos utensílios, ao longo de sua evolução, talvez seja a principal característica que nos distinga das demais espécies. A habilidade no uso de varetas e pedras remonta há milhões de anos entre os nossos mais distantes ancestrais, mas há um longo e peculiar caminho até os dias atuais, quando é possível, por exemplo, implantarmos chips em nossos corpos.

 

Por sua vez, as máquinas não somente substituem os trabalhos mais simples dos humanos; muitas vezes, tentam reproduzi-los literalmente, a exemplo da robótica e equipamentos inteligentes, incluindo as recentes máquinas que aprendem. Isso ganha uma dimensão especial quando dispomos de uma capacidade quase ilimitada de armazenar dados e utilizá-los via uma gestão inteligente, contemplando elementos de modelagem e simulação sem precedentes.

 

Mesmo assim, supõe-se, em geral, que há limites claros para as máquinas, entre eles, ir além de uma racionalidade previsível, embutida nas programações e nos algoritmos adotados. Em que medida podemos humanizar máquinas, especialmente no âmbito dos usos contemporâneos de Inteligência Artificial (IA), torna-se, progressivamente, um tema de grande interesse e é o tema central deste texto.

 

Ou seja, mesmo os maiores entusiastas de IA reconhecem que as máquinas estão restritas a decisões racionalizáveis, ainda que submetidas a sofisticados algoritmos. Nesse sentido, as emoções humanas, especialmente aquelas baseadas no livre arbítrio, são supostas como quase impossíveis de serem reproduzidas por máquinas.

 

No entanto, explorando essa difusa e complexa região entre racionalidade e emoções ou entre determinismo e livre arbítrio, é possível exemplificar a incorporação de elementos de incertezas que envolvem tomadas de decisões em processos de máquinas que simulam comportamentos humanos.

 

Com o intuito de exemplificar uma possibilidade, são necessários alguns conceitos básicos de métodos estatísticos, em particular o Método de Monte Carlo (MMC). O MMC é uma abordagem estatística baseada em amostragens aleatórias massivas que permite obter resultados numéricos. A partir de sucessivas simulações, um elevado número de possíveis configurações é gerado, permitindo calcular probabilidades. O MMC tem sido utilizado em diversas áreas (incluindo algumas semelhantes com jogos de dados, decorrendo daí sua denominação) como forma de obter aproximações numéricas de funções complexas, nas quais não é viável, ou mesmo impossível, obter uma solução simples analítica ou determinística.

 

Um MMC muito utilizado em Física, tendo como objetivo determinar valores esperados de propriedades do sistema simulado, a partir de uma média sobre a amostra, é o chamado Algoritmo de Metropolis (AM). Originalmente apresentado em 1953 por Nicholas Metropolis e outros1, ele foi generalizado em 1970 por W. K. Hastings2 (por isso também conhecido como Algoritmo Metropolis-Hastings).

 

AM se baseia na observação de que a determinação da probabilidade de uma dada configuração demanda conhecer a chance de ocorrência dela e de todas as outras possíveis configurações. Para variáveis contínuas se faz necessário uma integração da densidade de probabilidade sobre todo o espaço de configurações. Tal procedimento é, em geral, extremamente custoso, muitas vezes simplesmente impossível, quando se utiliza um número de variáveis grande (da ordem de centenas ou milhares), como é bastante comum nos sistemas de maior interesse.

 

A grande contribuição característica do AM é não levar em conta a probabilidade das configurações em si, mas sim a razão entre elas, dado que a razão entre as probabilidades de duas dadas configurações pode ser determinada independentemente das demais.

 

Se considerarmos duas configurações m e n quaisquer, é conhecido da estatística que, sendo E(m) a energia da configuração m e E(n) da n e sendo P(m) a probabilidade da configuração m e P(n) da n, a razão entre as probabilidades P(n) e P(m) pode ser descrita como: exp[-(E(n) – E(m))/KT], onde K é a constante de Boltzmann e T a temperatura da amostra.

 

Definida essa abordagem, o AM é implementado via um conjunto de regras razoavelmente simples:

  • O primeiro passo é a geração de uma configuração inicial aleatória, denominada m;
  • Em seguida, geramos uma nova configuração-tentativa, provocando pequenas alterações na configuração inicial, denominada n;
  • Se a nova configuração, n, tiver uma energia menor (maior estabilidade) do que a primeira, m, adota-se esta nova n;
  • Caso a energia da nova configuração, n, seja maior do que a original m, refletindo uma perda em estabilidade, em estatísticas convencionais o novo resultado seria descartado. Nesta abordagem, diferentemente, gera-se um número aleatório entre 0 e 1 e se este número for menor do que exp [-(E(n) – E(m))/KT], aceita-se esta configuração na amostra, caso contrário, não;
  • Repetem-se os passos (ii) e (iii) até que um certo critério de atendimento seja satisfeito, tal como esquematizado na Fig. 1.

 

Fig. 1. Representação esquemática do fluxograma de decisões em um Algoritmo de Metropolis-Hastings.

 

Observar que, no critério adotado acima, se E(n) e E(m) são valores bastante próximos, o resultado do termo exponencial acima se aproxima de 1, portanto, com razoável chance da nova configuração ser aceita. No entanto, se E(n) for muito maior do que E(m), este valor tende para zero, com grandes chances do número gerado, entre 0 e 1 ser maior e, portanto, esta configuração deve ser, provavelmente, desprezada.

 

Em sistemas físicos, onde se pretende determinar a configuração correspondente ao estado de mínima energia (maior estabilidade), um grande mérito do AM é permitir escapar de mínimos locais de energia. Via múltiplas etapas e a grande quantidade de configurações geradas, ao se aceitarem configurações com energias maiores com probabilidade não nulas, barreiras podem ser superadas e aprisionamentos locais evitados, e mínimos gerais atingidos (ver Fig. 2). Observar que se as configurações com energias maiores fossem liminarmente desprezadas, a possibilidade de aprisionamento em mínimos locais seria difícil de ser evitada.

 

Fig. 2. Gráfico genérico ilustrativo mostrando máximo e mínimos, locais e globais. No caso do problema físico, poderíamos ter no eixo vertical a variável energia e no eixo horizontal o espaço de configurações.

 

A adoção do AM garante que visitaremos regiões próximas dos mínimos de configurações mais aceitáveis (correspondentes aos de mínimas energias), percorrendo o espaço do domínio das funções envolvidas de maneira sistemática. Dependendo de como é definido o critério probabilístico, os caminhos não se afastarão muito de uma determinada região de confiança com relação ao método adotado.

 

No caso de máquinas inteligentes, movidas por algoritmos, uma analogia seria possível no tocante à tomada de decisões. No universo de abundância extrema de dados, de facilidades inéditas de gestão dos mesmos e de máquinas inteligentes, um ponto crucial é a tomada de decisões. Suponhamos que em cada encruzilhada, a máquina possa considerar múltiplos caminhos, cabendo contemplar critérios de escolhas e consequentes evoluções. Inspirados no AM, trata-se de garantir que caminhos que seriam normalmente desprezados sejam também considerados, seguindo o conjunto de regras acima descritos.

 

A partir de uma dada situação, expressa por uma configuração inicial aleatória, exploraríamos diversos caminhos no âmbito de tomada de decisões. Se o caminho simulado, fruto de pequenas alterações na configuração inicial, for, à luz do algoritmo utilizado, mais indicado, adota-se a nova configuração resultante.

 

Como o algoritmo utilizado, baseado nos dados disponíveis, permite contabilizar os prós e contras de cada nova configuração, podemos definir que a diferença entre eles possa ser expressa por um determinado Delta, a exemplo do caso anterior, sendo definido em cada circunstância.

 

Assim, dada uma situação original aleatória, quando a nova configuração gerar um Delta negativo, adota-se a nova configuração. Caso a nova situação seja menos indicada do que a original, gera-se um número aleatório entre 0 e 1 e se este número for menor do que exp[-Delta/C], onde C é uma constante, aceita-se o caminho; caso contrário, não.

 

Observar que, a exemplo do caso anterior, se Delta é muito pequeno, o termo exponencial se aproxima de 1, com grandes chances deste número ser superior ao gerado aletoriamente entre 0 e 1; portanto, com boa chance de ser adotado o caminho. Contrariamente, se Delta é muito grande o valor tende a zero e torna-se grande a possibilidade de o caminho ser desprezado. Por fim, repetem-se os processos acima até que um certo critério de atendimento seja satisfeito.

 

A constante C (análoga ao KT de sistemas físicos) permitiria uma associação indireta com um tipo de “excitação térmica”. Ou seja, em alguns processos, com C maior, significaria algo equivalente a menor aversão a risco nas tomadas de decisões, contemplando possibilidades mais radicais ou arriscadas entre configurações mais distantes. Valores menores de C representariam tomadas de decisões mais conservadoras, envolvendo estados mais próximos, sem grandes perturbações no sistema.

 

A evolução do sistema permitiria, de certa forma, imitar comportamentos humanos que nem sempre seguem, exclusivamente, racionalidades, sendo recheado de etapas guiadas por elementos de emoção, em geral, não contemplados nos algoritmos tradicionais.

 

Em tese, portanto, podemos imaginar contribuições acerca de como ensinar máquinas a tomarem decisões. No caso, os movimentos sequenciais de uma máquina inteligente qualquer seguiriam os passos inspirados por um AM. Ou seja, introduzindo aleatoriedade, via pequenos passos, podemos, no limite, simular emoções e imprevisibilidades, as quais conjugadas com racionalidades estabelecem alguma semelhança com decisões humanas.

 

 

Referências:

  1. Metropolis e outros, Journal of Chemical Physics 21, 1087 (1953).
  2. K. Hastings, Biometrika 57 (1), 97 (1970).

 

 

 

 

Autor: Tags: , , , , ,

terça-feira, 11 de junho de 2019 aprendizagem, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 18:50

O Enade precisa ser como ele é?

Compartilhe: Twitter

 

O Exame Nacional de Desempenho dos Estudantes (Enade) é uma das avaliações que compõem o Sistema Nacional de Avaliação da Educação Superior (Sinaes), criado pela Lei nº. 10.861, de 14 de abril de 2004. O Sinaes é composto também pelos processos de Avaliação dos Cursos de Graduação e de Avaliação Institucional que, juntos com o Enade, formam um tripé avaliativo acerca da qualidade dos cursos e instituições de educação superior do Brasil.

 

O objetivo do Enade tem sido buscar avaliar e acompanhar o processo de aprendizagem e o desempenho acadêmico dos estudantes em relação aos conteúdos programáticos previstos nas Diretrizes Curriculares Nacionais (DCNs) do respectivo curso de graduação, incluindo também mensurar suas habilidades para compreender temas contemporâneos e ligados a outras áreas do conhecimento.

 

Tanto o Relatório da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), encomendado pelo Governo Brasileiro à OCDE em 2018, como o Relatório do Tribunal de Contas da União (TCU) sobre o Sinaes (TC 010.471/2017-0) evidenciam a fragilidade do Enade, tal como ele é aplicado atualmente. Eles destacam a incapacidade de tratar, de forma adequada, os elementos centrais de aprendizagem e criticam o processo por ser demasiadamente dispendioso e sem contrapartida clara que evidencie resultados confiáveis.

 

Além disso, a sua aplicação trienal por área de conhecimento, findou estabelecendo, como prática quase geral nas instituições, preocupações diferenciadas entre aquelas turmas que farão e as que não farão o exame. Para as turmas que fazem o exame, a visão restrita de preparar para as questões de maior incidência nos anos anteriores acaba por distorcer as próprias DCNs. Para as que não fazem o exame, não há evidências que os resultados obtidos pelas que fazem estejam sendo utilizados para a melhoria contínua de aprendizagem.

 

Da mesma forma, faltam elementos para justificar que o Enade possa, com o devido rigor, retratar algo mais sólido acerca da suficiência do aprendizado medido comparativamente com o que era esperado que o formando soubesse, o conhecido Índice de Diferença entre os Desempenhos Observado e Esperado (IDD).

 

Um fato adicional torna o diagnóstico mais difícil ainda, por não constar do histórico escolar do formando, ele é altamente sensível a elementos associados à sua motivação com relação ao próprio exame. Ressalte-se que, quanto à motivação do estudante por realizar este exame de forma adequada e responsável, é fundamental que as instituições esclareçam acerca da importância do Relatório Individual de Desempenho do Estudante, instrumento acessível ao formando, conforme previsto na lei do Sinaes, propiciando que ele se compare aos demais da sua própria turma, bem como a sua classificação relativa com os demais formandos da região e do País.

 

O Enade, no que se propõe, de fato, permite analisar aspectos comparativos entre os que fazem a mesma edição do exame, porém, é inadequado para fornecer um diagnóstico comparativo entre edições diversas. Mesmo entre os formandos de uma edição específica, os processos de ajustes de curvas resultam trazer insuficiente informação acerca de quão satisfatório, em termos absolutos, foi o processo de aprendizagem.

 

Mesmo com todas essas dificuldades, se estivéssemos formando profissionais para o século passado, seria justificável afirmar que algo relativamente substantivo é medido em termos de aprendizagem de conteúdo, procedimentos e técnicas associados a determinada profissão. O drama é que o futuro, que já está em curso, aponta que há elementos tão ou mais relevantes do que o que supostamente está sendo medido, ou seja, a capacidade de aprender continuamente e as atitudes do educando frente a problemas complexos.

 

Há, portanto, que se incluir os diferenciais que um curso de graduação deve conferir ao formando, comparativamente ao ingressante, acerca de sua própria compreensão sobre como ele aprende melhor e como ele se comporta no cumprimento de missões.

 

Ao se incorporar essa abordagem, que corresponde ao estado da arte em termos de teoria de aprendizagem, a proposta mais adequada seria que o exame fosse revelador da maturidade intelectual do formando, no que diz respeito a itens tais como: i) capacidade de desenvolver raciocínios críticos, lógicos e abstratos; ii) domínio do método científico, na solução de problemas e missões; iii) habilidade de entender textos complexos e de escrever de forma a se fazer entender claramente pelos demais (letramento sofisticado); iv) letramento matemático substantivo, indo além de operações matemáticas simples; v) capacidade de juntar conhecimentos de áreas diversas do saber, propiciando resolver problemas que demandam multidisciplinaridade e olhares múltiplos; vi) entender processos que envolvem programação simples, elementos de modelagem e simulação, ingredientes inerentes  aos temas contemporâneos; e vi) demonstrar domínio de habilidades socioemocionais associadas a enfrentamentos, em equipe, de temas complexos.

 

Enfim, um possível novo Enade mensuraria a transversal capacidade de aprender continuamente e alguns aspectos comportamentais do formando, permitindo ser aplicado indistintamente o mesmo teste a todas as áreas de conhecimento. A partir de questões formuladas baseadas na Teoria de Resposta ao Item, propiciaríamos um comparativo entre os desempenhos relativos entre os resultados obtidos pelos formandos e pelos ingressantes, bem como evoluções de aprendizagem entre turmas de anos subsequentes ou anteriores. Desta forma, poderíamos representar mais fielmente a capacidade de aprendizagem do estudante, o potencial do profissional contemporâneo que formamos e os diferenciais de desempenho dos estudantes, viabilizando um IDD mais consistente do que o adotado atualmente.

 

Adicionalmente, tão relevante quanto as informações e avaliações do formando por ocasião do Enade, é o acompanhamento do egresso. A partir de uma plataforma online acessível e atraente, deveriam ser colhidos, voluntariamente, dados sobre o nível de sucesso profissional e de satisfação pessoal do egresso, além da percepção a posteriori do quanto e em que aspectos sua formação foi adequada. Esses elementos deveriam ser essenciais nos processos de avaliação e autoavaliação institucional, bem como da avaliação de cada curso.

 

Autor: Tags: , , , , ,

quinta-feira, 23 de maio de 2019 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 10:17

Regulação Estatal, Autorregulação ou Corregulação do Ensino Superior?

Compartilhe: Twitter

 

A política regulatória estatal vigente no ensino superior brasileiro é fruto de décadas de experiências, tendo sido impregnada pelos acertos e equívocos de uma área reconhecidamente complexa e dinâmica. De forma simplificada, cabe ao  Conselho Nacional de Educação/CNE  o credenciamento e recredenciamento das instituições educacionais, o Ministério da Educação/MEC é responsável pelos processos de autorização e reconhecimento de cursos, enquanto o INEP realiza avaliações baseadas no Exame Nacional de Desempenho do Estudante/ENADE e em visitas in loco, por intermédio de comissões ad hoc. Além disso, cada instituição de educação superior conta com uma Comissão Própria de Avaliação/CPA, responsável pela autoavaliação interna.

 

O modelo em vigor tem sido criticado pela excessiva carga burocrática, por priorizar processos em detrimento de resultados objetivos e, especialmente, pelas dificuldades de mensurar, de forma adequada, aspectos essenciais da aprendizagem. Além disso, não é clara a compatibilidade e consonância do sistema regulatório com o Plano Nacional de Educação/PNE, cuja pretensiosa meta prevê elevar até 2024 a taxa de matrículas de estudantes no ensino superior com idade entre 18 e 24 anos de 18% para 33%.

 

Em uma sociedade ideal e imaginária, seria tentador pensar em um sistema que dispensasse por completo a regulação formal do Estado. Contaríamos somente com a autorregulação do setor, partindo da capacidade discricionária do cidadão consciente. Imaginamos aqui um consumidor maduro e preparado no que diz respeito aos produtos e serviços que possam ser de seu interesse.

 

Migrando do mundo abstrato e geral e aterrissando no solo real das peculiaridades e fragilidades de cada contexto, há duas relevantes variáveis que demandam ser analisadas conjuntamente. A primeira delas é a inegável vocação nacional pelo cartorialismo, onde um título educacional representa mais do que simplesmente um atestado de conhecimento adquirido. No caso, um diploma de nível superior habilita ao exercício profissional, a realização de concursos públicos e a candidatura a outras vagas de emprego, além de tratamentos especiais previstos em lei. Tudo isso independente da qualidade da formação adquirida anteriormente.

 

A segunda variável, quase que uma decorrência natural do fenômeno da valorização formal em detrimento do efetivo domínio de conteúdo, procedimentos e técnicas de cada profissão, teríamos opossível estímulo e atração de empreendimentos privados ancorados unicamente no lucro. Na ausência total do Estado e na carência de regras claras, corre-se o risco de juntarmos um consumidor imaturo, preocupado unicamente com o diploma, com o eventual desmedido apetite financeiro de empresas educacionais, especialmente aquelas que apostam em resultados lucrativos a curto prazo.

 

Na dicotomia entre uma regulação estatal e a autorregulação pura e simples, é possível uma tentativa híbrida de conjugar maior agilidade, flexibilidade e eficiência do processo regulatório. Um arranjo regulatório moderno seria ancorado numa maior responsabilização compartilhada, tanto do Estado como das instituições educacionais, via um processo baseado na corregulação, associada ao uso intensivo das tecnologias digitais.

 

Quanto à corregulação, uma sugestão seria estimularmos agências acreditadoras que colaborariam, especialmente, nos atos autorizativos, de reconhecimentos e renovações de reconhecimentos de cursos. Caberia ao MEC, orientado pelo INEP, via editais específicos, conceder autorizações, renováveis periodicamente, para que agências de avaliação, especificamente construídas com este propósito, em geral via consórcios de organizações da área educacional, cumpram este papel complementar. As agências que não corresponderem às expectativas de garantia de qualidade seriam desacreditadas pelo MEC, a qualquer momento, ou poderiam não ter suas renovações concedidas. As instituições educacionais, por sua vez, optariam, a seu critério, por uma entre as agências acreditadas, sendo que, quanto mais rigorosas estas forem, maior o crédito conferido à qualidade do ensino ministrado.  

 

No que diz respeito ao uso das possibilidades digitais, teríamos uma progressiva diminuição do custo burocrático, com ganho na publicização das informações acadêmicas e na precisão de informações, as quais balizariam os processos avaliativos, dentro do que está previsto no espírito do Sistema Nacional de Avaliação do Ensino Superior/SINAES. A avaliação in loco, realizada pelo INEP, é a versão analógica e custosa de uma possível solução digital, eficiente e contemporânea. Ao invés das milhares de visitas anuais para as mais de duas mil instituições educacionais, poderíamos explorar informações multimídia, instantâneas e fidedignas. Cada instituição, tornaria público seu Plano de Desenvolvimento Institucional, seus Projetos Pedagógicos de Cursos e demais documentos, incluindo infraestrutura geral e planos de carreira docente, que expressam a sua missão específica.

 

Da mesma forma, seriam associados aos seus cursos cadastrados os respectivos docentes, bem como seus dados completos, as disciplinas que estão sendo ministradas, nominando, em tempo real, os discentes registrados e as instalações disponíveis,tendo discriminados plenamente os seus usos previstos. Seriam espécies de “templates” padrão, preenchidos e atualizados permanentemente, com registros de alterações, facilmente computáveis e verificáveis, com correspondentes sanções a eventuais equívocos nas informações coletadas. Assim, as visitas do INEP, como nós as conhecemos hoje, seriam destinadas a situações específicas, em que a coleta dos dados e, especialmente, dos resultados de aprendizagem aferidos assim as justifiquem.

 

Um dos objetivos de um processo de corregulação bem-sucedido seria atuar firmemente inibindo que a obsessão pelo lucro possa trazer prejuízos à qualidade do ensino. Para tanto, faz-se necessário provar àqueles que fazem mal feito que é sim um bom negócio fazer bem feito. Nem mesmo que seja porque, educacionalmente, fazer bem feito pode ser, de fato, um bom negócio.

——

Imagem disponível em:

https://images.app.goo.gl/iAfjCy6U4zFgsVwW7

 

Autor: Tags: , , ,

  1. Primeira
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7. 10
  8. Última