Publicidade

segunda-feira, 17 de fevereiro de 2020 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 20:36

Árvore de Decisão e Processos de Aprendizagem

Compartilhe: Twitter

O Método Árvore de Decisão tem sido utilizado em Ciência dos Dados desde a década de 1980. No entanto, trata-se de abordagem recente no que diz respeito à sua aplicação em estudos preditivos na área da Educação.

 

O advento dos Algoritmos de Aprendizagem aplicados a Máquinas que Aprendem tem propiciado um novo fôlego ao método, em especial viabilizando informações significativas acerca de estratégias relevantes aos processos de ensino e de aprendizagem.

 

Uma das vantagens que o método propicia é dispensar hipóteses preliminares sobre os dados ou os modelos assumidos. Costuma-se afirmar que o Método Árvore de Decisão não se inicia com um modelo a priori, mas sim ele constrói um modelo a partir dos dados. Portanto, ele é relativamente fácil de interpretar e bastante intuitivo.

 

Vejamos, para efeito de ilustração, um caso simples e geral relacionado à aprendizagem. Suponhamos uma determinada turma de alunos próximos a iniciarem um curso, disciplina ou tópico qualquer.

 

Quanto mais informações sobre os educandos, melhor será a proposta educacional no sentido de oferecer a cada um deles a trilha mais adequada, dentre aquelas disponíveis. Neste caso hipotético, três categorias relativas ao aluno são assumidas centrais: 1) Qual a mídia que lhe é mais favorável?; 2) O que o aluno já sabe (ou pensa que já sabe) sobre o conteúdo que será objeto do curso?; e 3) Qual o tempo que ele dispõe para se preparar com antecedência?

 

A árvore se inicia com uma questão simples e direta, a qual pressupõe que o estudante saiba algo sobre si mesmo. Caso não esteja plenamente convencido, não há problema grave.  O Diagrama 1 mostra que, em algum momento, se for o caso, ele retorna ao ponto inicial podendo refazer sua escolha original e, talvez, aprofundar o conhecimento sobre si mesmo, em termos educacionais.

 

 

Escolhido o meio preferencial entre as opções sugeridas (no caso, oferecemos quatro, mas pode ser um número ilimitado, refletindo o contexto educacional específico), cabe perguntar se a mídia está disponível. Caso não esteja (não temos essa trilha, por exemplo), ele retorna à pergunta original. Caso a opção esteja disponível (sim, no Diagrama 1), segue-se em frente.

 

Na etapa seguinte, é solicitado que o aprendiz realize uma autoavaliação no que concerne ao seu conhecimento preliminar sobre o conteúdo a ser abordado no curso. A gradação sugerida é de 1 a 5, sendo 1 e 2 baixos (aquém do desejável para iniciar o curso), 3 (médio regular) e 4 ou 5, respectivamente, acima ou bem acima da média.

 

Definida a autoavaliação, o educando é questionado acerca do tempo que imagina que dispõe para abordar o tema. Se 1 ou 2, considerados baixos, ele é levado, respectivamente, às Trilhas 1 ou 2.

 

Procedimentos similares são adotados para aqueles que se autoavaliaram como médio, os quais, a depender dos tempos disponíveis para estudos antes de iniciar o curso, são dirigidos para as Trilhas 3 ou 4. Nos casos de autoavaliações positivas superiores (4 ou 5), eles são guiados, respectivamente, para as Trilhas 5 ou 6.

 

Associado ao fluxo de informações acerca da experiência do estudante, temos um contexto onde se torna imprescindível o estímulo para que ele reflita, após o primeiro processo, sobre a sua própria aprendizagem.  Pra tanto, uma Árvore de Reflexão deve ser construída (ver Diagrama 2).

 

 

A árvore se inicia com uma autoavaliação sobre a aprendizagem no processo anterior (Árvore de Decisão). Se a avaliação for negativa (1 ou 2), o aluno é indagado se quer ser direcionado para uma trilha diferente da adotada (ou mesmo repetir a adotada). Neste caso, se seguiram a Trilha 2 poderiam experimentar na próxima a Trilha 1, por exemplo. Caso a resposta seja não, deve o aluno retornar ao início da Árvore de Decisão, buscando seguir uma trajetória em diferente meio (por exemplo, se optou por podcast pode agora tentar videoaula etc.). Da mesma forma, pode seguir na mídia e dispor de mais tempo desta vez.

 

No caso da avaliação da experiência anterior tenha sido média ou média superior (3 ou 4), resta a indagação se o aprendiz gostaria de saltar para uma trilha mais densa (de 3 para 4 ou de 4 para 5). Caso não queira (resposta 2 no Diagrama 2), resta a opção de retornar ao início da Árvore de Decisão, alterando mídia ou tempos de dedicação.

 

Por fim, se a autorreflexão gerou uma avaliação máxima sobre a experiência anterior, Parabéns! Você está muito bem preparado para começar o curso.

 

 

Autor: Tags:

segunda-feira, 10 de fevereiro de 2020 aprendizagem, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 12:12

A Árvore de Decisão e o coentro no peixe

Compartilhe: Twitter

 

 

 

Uma Árvore de Decisão é um diagrama representando um conjunto sequencial de decisões intermediárias, gerando, ao final, diversas soluções para a questão preliminarmente proposta.

 

Esta abordagem tem sido utilizada como ferramenta de tomada de decisões, balizadas por raciocínios justificáveis, colaborando na análise e no planejamento, bem como no aprimoramento de processos, tanto simples como complexos.

 

Na verdade, na sua forma não explicitada e sistematizada, utilizamos, no cotidiano, raciocínios com formas similares às árvores em questão, de forma instintiva e natural. No entanto, atualmente, a utilidade de Árvores de Decisão é transcendente, dado que, associado a uma Árvore de Reflexão, viabiliza um processo iterativo dinâmico, o qual permite aprimoramentos contínuos. Nesta perspectiva, este método constitui uma das bases essenciais de Inteligência Artificial e de Aprendizagem de Máquina (em inglês, “Machine Learning”).

 

A árvore começa sempre com uma pergunta central, retratando o tema raiz a ser abordado.  A partir da raiz, possibilidades decorrentes são representadas por troncos de árvore. Esses troncos, por sua vez, se desdobram na forma de folhas, ilustrando as múltiplas possibilidades inseridas num fluxograma, o qual, ao final, leva a um conjunto de possíveis soluções.

 

Visando evidenciar em que medida é possível expressar processos de decisões comuns e diários, exemplificamos aqui com um caso peculiar: usar ou não coentro na preparação de um prato à base de peixe.

 

Suponhamos, a título de ilustração, que você já está na cozinha começando a preparar um prato de peixe a ser servido logo mais à noite para seus convidados. Imaginemos que a possibilidade de usar coentro (ou não) lhe venha à mente.

 

Consideremos, por hipótese, que seja fato assumido que aproximadamente 1/3 das pessoas adore coentro, que 1/3 deteste coentro e que para o restante 1/3 seja indiferente. Esses números são plausíveis para quem já experimentou o forte sabor do coentro no tempero.

 

Sua resposta preliminar, em geral baseada na sua própria opinião sobre o tema, irá definir a primeira bifurcação, expressa pela possibilidade de sim ou não (veja o Diagrama 1). Suponhamos que sua resposta seja sim sobre colocar coentro no peixe, ainda que você não disponha do produto naquele momento.

 

A pergunta natural decorrente do sim é se há possibilidade de obter coentro nas redondezas. Caso não esteja disponível o produto nas proximidades razoáveis, a decisão está inerentemente tomada: esqueça o coentro e toque adiante a preparação de seu prato sem ele.

 

Por sua vez, seguindo neste tronco, suponhamos que o coentro possa ser adquirido nas proximidades. Neste momento há que se ponderar se no conjunto de seus convidados há (ou não) expressiva maioria que gosta de coentro. A fração f se refere à hipótese inicial de 2/3 gostarem ou serem indiferentes.

 

Responderemos sim se f for maior ou igual a 2/3, o que nos remete à pergunta decorrente: há alguém particularmente especial incluído na minoria (1- f) que não gosta de coentro? Caso haja, mesmo que, eventualmente, frustrem outros, a decisão aconselhável tende para “faça o peixe sem coentro”. Se a opção for não, faça somente com coentro.

 

Por outro lado, sua resposta inicial, no começo da árvore, poderia ter sido não. Neste caso, surge a próxima pergunta acerca de alguns dos convidados, especialmente se aqueles que você quer agradar gostariam muito de comer com tempero de coentro. Se a resposta for não, faça sem coentro.

 

Alternativamente, se a opção for sim, significa que algumas pessoas que você quer especialmente agradar gostariam de coentro. Neste cenário, você é remetido (de novo) à questão da disponibilidade nas proximidades de coentro. Se a reposta for não, a solução está dada e siga sem coentro.

 

No entanto, se o coentro estiver disponível nas circunvizinhanças, você é endereçado a ter ou não à mão duas panelas, o que permitiria, em tese, fazer parte com coentro e parte sem coentro.

 

Suponhamos que naquele momento você não dispõe de duas panelas adequadas (continue acompanhando também pelo Diagrama 1), neste caso talvez a solução mais plausível seja “faça somente com coentro”.   Caso duas panelas estejam disponíveis, a solução seria “faça parte com e parte sem coentro”.

 

Observem no diagrama que duas setas apontam para “apenas com coentro”, quatro para “apenas sem coentro” e uma seta apenas para “faça parte com e parte sem”. As decisões assumidas ao longo dos diversos processos por certo estão eivadas de subjetividades e impregnadas de valores e conceitos de quem toma a decisão. A conferência acerca da efetividade (sucesso da árvore desenhada) só pode mesmo ser medida a posteriori. Assim, decorre daí a necessidade de uma Árvore de Reflexão associada à primeira (Diagrama 2).

 

A reflexão no caso específico diz respeito a saber se o jantar, já ocorrido, foi bom ou não. Caso sigamos o tronco do sim, emerge a pergunta “poderia ter sido melhor?”. Se a resposta tende para não (impossível ter tido mais sucesso), significa que a Árvore de Decisão é consistente e sua utilização foi um grande sucesso, restando as merecidas congratulações ao cozinheiro.

 

Caso a resposta à pergunta tenha sido que, na sua análise, existiria espaço para aprimoramentos, aparece a pergunta se você fez uso ou não de duas panelas. Caso sim, valem os mesmos cumprimentos acima pelo pleno sucesso. Se não foram utilizadas duas panelas, no próximo jantar não hesite, tenha-as disponíveis, o que significa um aprimoramento do processo.

 

Retornando ao início da reflexão, expressa pelo Diagrama 2, assumindo que o tronco do não, o peixe não foi um sucesso, decorre questionar se duas panelas foram ou não utilizadas. Caso não, o aperfeiçoamento, fruto da reflexão, sugere que outra panela seja adquirida.

 

No caso de duas panelas terem sido usadas e mesmo assim o jantar não foi um sucesso, o resultado da análise, no que diz respeito ao coentro, seria: repense a Árvore de Decisão, incluindo o valor adotado para o limite da fração f e demais itens constantes da árvore.

 

Perceba, por fim, que a Árvore de Decisão, ancorada nos aspectos mais comuns e diretos, se assemelha às tradicionais abordagens cognitivas, baseadas no que se sabe e no que se supõe que se saiba. Por outro lado, a Árvore de Reflexão lembra os elementos metacognitivos, ou seja, aqueles baseados em refletir sobre as próprias ações, aumentando o nível de consciência sobre seus atos, permitindo pensar sobre as oportunidades de aprendizagem ao longo do percurso, via permanentes iterações.

 

Um eventual retorno à Árvore de Decisão adotada, agora com um novo valor de f, é um exemplo simples do que máquinas inteligentes e complexas, baseadas em Inteligência Artificial, assentadas em “Machine Learning”, fazem.

 

Identicamente, a possibilidade de dispormos de mais dados sobre os convidados (“Big Data”) e de mais capacidade computacional pode, de forma similar, propiciar maior efetividade ao longo dos processos envolvendo as duas árvores.

 

Em suma, em um ambiente de trabalho convencional, podemos, utilizando as árvores, estimular que os envolvidos reflitam sobre os vários casos nos quais eles têm que tomar decisões. Em geral, eles não dispõem de uma árvore para sistematizar e analisar. Assim, é plenamente viável dar a eles, como primeira tarefa, escolherem um, dentre os inúmeros processos que tomam parte, e tentar descrevê-lo a partir de árvores.

 

Do ponto de vista educacional, há muito que ser explorado em termos de definição de trilhas de aprendizagem. Especialmente a análise acerca do que pode significar um aumento de consciência do educando sobre como ele aprende. Este tema será tratado mais adiante, conectado com a Analítica da Aprendizagem (“Learning Analytics”), o uso de plataformas inteligentes e de modelos adaptativos de aprendizagem.

 

Nós, humanos, criamos as máquinas. Uma das primeiras e mais simbólicas foi a máquina a vapor de James Watt, em 1769. Esta findou permitindo substituir, com pleno sucesso, aqueles que tiravam água das minas de carvão, viabilizando ir mais fundo e obtê-lo de mais qualidade e em maior quantidade.

 

Com o tempo, temos tentado desenvolver máquinas que possam cumprir todas as nossas tarefas, sem exceção. Atualmente, almejamos que as máquinas possam ir além de simplesmente fazer. Queremos que elas pensem, refletindo sobre suas próprias ações, aperfeiçoando a si mesmas continuamente e que tomem decisões, tal como nós o faríamos. Seja nas coisas mais complexas ou em decisões simples e cotidianas, a exemplo de, em determinado contexto, colocar ou não coentro no peixe.

 

Cada vez mais tentamos criar as máquinas à nossa imagem e semelhança – pelo menos na forma de lidar com a informação. O advento da Inteligência Artificial e dos Algoritmos de Aprendizagem, em conjunto com a ampliação absurda da capacidade de armazenar e processar dados, nos aproxima, por similaridade, com o que está registrado no Velho Testamento. Em especial, em Gênesis 1:26: “E disse Deus: Façamos o homem à nossa imagem, conforme a nossa semelhança; e domine sobre os peixes do mar, e sobre as aves dos céus, e sobre o gado, e sobre toda a terra, e sobre todo o réptil que se move sobre a terra”.

 

 

Autor: Tags: , , , , , , ,

domingo, 15 de dezembro de 2019 Sem categoria | 11:43

Ensino superior: autorregulação para quem?

Compartilhe: Twitter

 

 

O setor do ensino superior privado sempre demandou mais autonomia. O emaranhado burocrático estatal se mostra demasiadamente custoso e pouco estimulador de experiências acadêmicas criativas e empreendedoras. O limite superior da autonomia seria o seu exercício pleno, via autorregulação soberana do setor.

 

Porém, as coisas, como sempre, são mais complexas do que um olhar à primeira vista sugere. A começar pela pergunta mais simples: autorregulação para ser exercida por quem? Ou, então, quem são os atores principais que demandam estar envolvidos para que um devido equilíbrio seja positivamente explorado?

 

Uma abordagem preliminar implica em entender o que tem sido feito pela parcela de autonomia que a legislação atual já contempla. Comecemos pelo art. 207 da Constituição Federal em vigor.  Ele estabelece que as universidades gozam de autonomia didático-científica, administrativa e de gestão financeira e patrimonial, e obedecerão ao princípio de indissociabilidade entre ensino, pesquisa e extensão.

 

As universidades públicas, salvo os limites impostos pelas limitações orçamentárias do mantenedor (seja ele governos federal, estadual ou municipal), exercem tal autonomia. Ela se expressa, principalmente, pelo respeito às decisões soberanas de seus conselhos superiores, materializado na figura de seus respectivos reitores, os quais têm seus mandatos garantidos e respeitados.

 

Em algumas universidades privadas, ao contrário do que prevê a lei, a autonomia, é entendida como sendo garantida à mantenedora, e não à mantida. Às vezes, os conselhos superiores das instituições têm poder decisório limitado, estando as decisões finais concentradas, mesmo em temas de natureza acadêmica, nas mãos das diretorias executivas das empresas educacionais. Em geral, os reitores findam sendo figuras quase simbólicas, desprovidos de poderes efetivos.

 

A Lei de Diretrizes e Bases da Educação Nacional/LDB (Lei 9.394/1996) prevê que, em função da autonomia didático-científica das universidades, cabe aos colegiados de ensino e pesquisa decidir, dentro dos recursos orçamentários disponíveis, sobre criação, expansão, modificação e extinção de cursos, ampliação e diminuição de vagas, contratação e dispensa de professores, planos de carreira docente, entre outros itens essenciais da vida acadêmica.

 

Ao lado de instituições comunitárias, confessionais, com ou sem fins lucrativos, o processo em curso de consolidação no setor se caracteriza pelo crescimento acelerado dos grandes grupos educacionais, os quais tendem a ser, economicamente, mais competitivos nos próximos anos.

 

Entre os grandes grupos, há uma primeira divisão entre aqueles de capital aberto ou fechado. Mesmo entre o subgrupo de capital aberto, há casos de controladores oriundos de famílias de educadores, com tradição no ramo e horizontes de longo prazo, e aqueles controlados por fundos de investimento, em geral, estrangeiros. Estes, normalmente, atuam simultaneamente em ramos diversos da economia, sendo educação um de seus campos de interesse, muitas vezes circunstancias e por prazo limitado.

 

As experiências recentes do Chile mostram a dificuldade em compatibilizar qualidade e os interesses por lucros de curto prazo. A Colômbia e outros países da região convivem com os dilemas entre a correta política de estimular o setor privado e a necessidade de garantir padrões mínimos de qualidade. No México, com complexidade semelhante à brasileira, o processo de acreditação foi transferido do Estado para uma federação de instituições privadas, com um complicador adicional, coexistem instituições que optaram por se filiarem ao modelo e outras que se mantiveram como não acreditadas. Portugal tem uma experiência de pouco mais de uma década de uma agência de acreditação e de avaliação, tanto institucional como de cursos, visando garantir qualidade compatível com os seus congêneres europeus.

 

O Brasil precisa do setor privado, o qual tem, à sua maneira, respondido de forma positiva, tanto em número de matrículas como na salutar implementação de tecnologias educacionais inovadoras. A sua riqueza, quanto à diversidade, deve ser vista como um predicado, e jamais como um problema. Precedendo a desejável autorregulação, cabe ao setor demonstrar maturidade suficiente, conferindo às suas respectivas instâncias acadêmicas pesos relevantes nas decisões específicas. Caso contrário, em alguns casos, sem realizar inflexões, as planilhas dos tecnocratas serão os referenciais primeiros, quando não exclusivos, nas tomadas de decisões.

 

Portanto, sobre o tema autorregulação, cabe ao setor privado, como um todo, realizar um exercício de reflexão interna sobre o que desejam, conjugando com o que pode ser bom para o país. Sendo positivos tais propósitos, como são para a imensa maioria das instituições, há que materializá-los fortalecendo seus respectivos âmbitos acadêmicos. Para aqueles cujos propósitos são predominantemente financeiros de curto prazo, cabe destacar que, mesmo para eles, se soubessem como é bom negócio fazer bem-feito, o fariam. Ao menos porque, de fato, é bom negócio.

 

Recentemente, Simon Schwartzman destacou, de forma apropriada, a aplicação do triângulo de Clark na regulação do ensino superior, um delicado balanço entre os papeis do Estado, do mundo acadêmico-profissional e das empresas/mercado. Qualquer desbalanço pode ter como consequências o autoritarismo estatal, a oligarquia acadêmica ou corporativa ou a selvageria de mercado ou de empresas.

 

Explorar os espaços de superposição desses três atores (Estado/comunidade acadêmica/sociedade), todos eles em si complexos, é, por certo, o melhor cenário para moldarmos um sistema regulatório eficiente e eficaz. Uma boa medida do quão adequados serão os modelos propostos seria mensurar o efetivo estímulo para que modelos inovadores para cursos já existentes sejam implementados e, especialmente, para que cursos novos sejam propostos e testados.

 

—–

 Figura disponível para “free dowload” em: https://www.pngfly.com/png-j65jnv/

Autor: Tags:

sábado, 16 de novembro de 2019 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 15:31

Algoritmos e profissões

Compartilhe: Twitter

 

Se a era atual tem um nome, esse nome é “algoritmo”. Trata-se de uma sequência de instruções que informa os computadores o que eles devem fazer. Computadores são compostos de muitas chaves minúsculas, os transistores, e os algoritmos ligam e desligam tais chaves bilhões de vezes por segundo.

 

A novidade mais recente é que não precisamos mais gerar um algoritmo por tarefa, substituindo essa missão pela construção de máquinas que aprendem (em inglês, machine learning). Machine learning é um subcampo de inteligência artificial dedicado ao desenvolvimento de algoritmos e técnicas que permitem ao computador aprender continuamente, aperfeiçoando seu desempenho.

 

Os algoritmos controlam os voos, gerenciam nossas contas bancárias, gerenciam ambientes de aprendizagem, detectam enfermidades etc. Esses algoritmos, progressivamente, operam por aprendizado a partir de trilhas de dados que deixamos nas interfaces digitais. Assim, somos observados, imitados e mensurados em nossos comportamentos.

 

À medida que, cada vez mais, os algoritmos controlam nossas vidas, a pergunta essencial é: quem são os profissionais que lidam com essas tarefas? Há um conjunto aberto de profissionais associados a essas áreas e a título de ilustração apresentarei, a seguir, alguns deles. Mas, trata-se de lista, declaradamente, incompleta.

 

De forma simplificada, os coders e programadores podem ser formados em ensino médio profissionalizante ou como tecnólogos de nível superior. Engenheiros ou cientistas de dados demandam cursos superiores. Um conjunto adicional de profissionais, tal como arquitetos de sistemas, em geral, se formam em nível de pós-graduação. A acentuada dinâmica desta área sugere que boa parte deles será formada via educação informal, distante das instituições de ensino, como nós as conhecemos atualmente.

 

Os coders escrevem códigos simples, sem o compromisso de planejar e desenhar programas mais complexos, gerando resultados de interesse prático. Em algumas circunstâncias, os coders sequer participam da programação principal, ainda que colaborem nos scripts adicionais que automatizam algumas tarefas específicas.

 

Se o coder passa a dominar de forma diferenciada e mais aprofundada uma ou mais linguagens de programação computacional, ele vai se transformando em um programador.  Os programadores, mais do que seguir receitas, escolhem ingredientes e geram produtos inovadores, o que envolve, normalmente, um nível adicional de originalidade. Trata-se de criar com lógica, via uma linguagem específica de programação.

 

Os engenheiros ou cientistas de dados estão entre os profissionais mais cobiçados do mercado atualmente. Estes profissionais combinam habilidades de programação, ciência da computação, estatística e conhecimento específico do negócio ou da missão. Tal perfil é difícil de ser encontrado, especialmente no mercado brasileiro, o que tem resultado num aumento considerável nos salários pagos aqueles que dominam mais profundamente a arte da análise de dados.

 

A maioria dos gestores não faz ideia do tesouro que os dados representam e bastante comum serem desperdiçados sem uso. A correta coleta, organização e o domínio das análises fazem do engenheiro de dados uma figura essencial em qualquer campo de atividade atualmente. Os engenheiros de dados transformam os dados brutos, desde bancos de dados transacionais até arquivos de texto, em formatos que permitam ao demais profissionais associados começarem seus trabalhos.

 

Os arquitetos de sistemas, por sua vez, lidam especialmente na interface dos aplicativos ou dos softwares e suas customizações no atendimento de clientes e na consecução de tarefas.  Por exemplo, na IBM os clientes são tipicamente corporações, sendo estes profissionais os principais responsáveis por garantir que as soluções durem por certo prazo, dando o devido suporte nos elementos de designer de estruturas de softwares.

 

Na verdade, a maior parte das profissões associadas ao mundo dos algoritmos sequer tem nome ainda, muito menos conhecemos os seus respectivos detalhamentos. Ingressamos aceleradamente em uma nova era, com consequências econômicas sociais e educacionais profundas. O quanto antes ousarmos tentar compreender melhor.

 

—————–

Ilustração do Jornal “The Guardian”. Link: https://amp.theguardian.com/us-news/2017/jun/26/jobs-future-automation-robots-skills-creative-health

Autor: Tags: , , , , , , ,

terça-feira, 15 de outubro de 2019 aprendizagem, EaD, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 10:30

QUALIDADE EM EDUCAÇÃO A QUALQUER DISTÂNCIA

Compartilhe: Twitter

 

 

Fredric Litto (1) e Ronaldo Mota (2)

 

A Educação a Distância (EAD) é, usualmente, caracterizada como sendo a modalidade na qual os procedimentos educacionais são mediados por tecnologias, em contextos nos quais os educandos e os educadores estão separados, espacial ou temporalmente.

 

EAD é mundialmente reconhecida como ferramenta educacional estratégica na ampliação do acesso e da permanência, em especial no ensino superior. O que a Inglaterra implantou, por correspondência,muitas décadas, atualmente,as grandes universidades do mundo (Harvard, Cambridge e MIT, entre outras) o fazem via digital. Nas últimas décadas, a demanda por oportunidades educacionais tem crescido exponencialmente, graças sobretudo ao uso das tecnologias digitais e das metodologias inovadoras associadas. Felizmente, o Brasil está ativo e acompanhando, com garantia de qualidade, esse movimento educacional.

 

A modalidade EAD no Brasil foi assegurada na Lei de Diretrizes e Bases da Educação/LDB (Lei nº 9.394, de 20 de dezembro de 1996), que estabeleceu, no artigo nº 80, a possibilidade do seu uso orgânico em todos os níveis e modalidades de ensino. O Decreto nº 2.561, de 1998, que definiu parâmetros de políticas de garantia de qualidade na EAD, e o Decreto nº 5.622, de 2005, que regulamentou o artigo nº 80 da LDB, funcionaram como diretrizes para a publicação dos referenciais de qualidade em 2007.

 

Em 2017, a legislação sobre a EAD reorganizou a abertura de cursos, flexibilizou a oferta e possibilitou a ampliação do acesso. O Decreto nº 9.057, de 25 de maio de 2017, e a Portaria MEC nº 11, de 20 junho do mesmo ano, deram nova dimensão à modalidade. A Portaria permitiu às instituições criarem cursos de EAD, de acordo com sua organização administrativa, conforme os resultados obtidos no Conceito Institucional.

 

A partir da definição e do cumprimento de cargas didáticas suficientes de interação, acompanhadas de abrangência e profundidade adequadas, estão dadas as bases de garantia de qualidade na modalidade. Particularmente, em cursos das áreas de saúde, engenharias e outros é previsto, e demanda ser cumprido, um conjunto de atividades “mão na massa”, integralizando cargas horárias presenciais bem definidas.

 

Quanto às inovações mais recentes, incluindo a autorização para o uso de até 40% em EAD da carga didática total na maioria dos cursos presenciais (Portaria MEC nº 1.428, de 29 de dezembro de 2018), visam avançar na consolidação de um modelo híbrido que integre as boas práticas do presencial com o virtual, estimulando novas práticas pedagógicas, calcadas na real possibilidade de uma educação personalizada de qualidade. Via trilhas educacionais customizadas, podemos possibilitar que todos aprendam, que todos aprendam o tempo todo, e que cada qual aprenda de maneira própria e única.

 

Estatísticas recentes sobre cursos de graduação mostram que a EAD, em termos de oferta de vagas, ultrapassou o número de oferta de vagas presenciais, o que é fruto do reconhecimento da modalidade, especialmente por parte daqueles que sofrem impedimentos de toda ordem e que encontram na EAD compatibilidade com seu estilo de vida, incluindo custos menores e flexibilidade de tempo e de espaço para estudar. De forma diferenciada, se comparada à educação presencial, EAD permite, via trilhas educacionais especialmente desenhadas, a inclusão de pessoas com necessidades especiais, moradores de regiões distantes ou cidadãos com complexas disponibilidades  de horário ou local.

 

Caminhamos em direção à formulação de uma educação flexível e híbrida que conjugará elementos das duas modalidades de ensino, presencial e a distância. Estamos aprendendo aatender, com qualidade e de forma personalizada, às múltiplas demandas que respeitem as particularidades e as peculiaridades de cada educando, em seu contexto educacional específico, estabelecendo máxima compatibilidade com um cenário de educação permanente ao longo de toda a vida.

 

(1) Presidente da Associação Brasileira de Educação a Distância/ABED e professor emérito da Universidade de São Paulo/USP.

(2) Membro da Academia Brasileira de Educação, diretor científico da Digital Pages e ex-secretário de Educação a Distância do MEC.

—/—

Quadrinho ilustrativo de www.willtirando.com.br

 

 

 

Autor: Tags: , , , , , ,

sexta-feira, 11 de outubro de 2019 aprendizagem, Educação e Tecnologia, Ensino Superior | 17:11

ENSINAMENTOS CONTEMPORÂNEOS DA GRÉCIA ANTIGA

Compartilhe: Twitter

 

 

Parmênides nasceu em Eleia, na Grécia Antiga, por volta de 530 a. C., e a sua filosofia se baseia na concepção de que o ser é único, imutável, infinito e imóvel, sendo sempre, na sua essência, idêntico a si mesmo. O filósofo também defendia que a aparência sensível do mundo não existe. O que o filósofo quer dizer é que o nosso conhecimento sensitivo das coisas só nos dá uma ilusão do movimento, uma aparência, sendo que apenas o conhecimento intelectivo permite que se conceba a realidade como idêntica a si mesma.

 

Ele foi, portanto, um forte defensor da unidade, do imobilismo e da existência de um ser único e soberano. Para Parmênides, havia uma espécie de organização racional do universo que era infinita, indivisível, imutável e imóvel, centrada no que ele chamou de “ser”. Tudo o que existia possuía o “ser” dentro de si.

 

Parmênides teve forte influência sobre a filosofia platônica e as gerações que se sucederam desde então. Ele tentou ordenar a realidade a partir de duas classes: “aquelas que são” e “aquelas que não são”. Por exemplo, ao observar a luz e a escuridão, notou que a escuridão nada mais era do que a negação da luz. Após denominar esses pares de opostos como “ser” (positiva) e “não-ser” (negativa), postulou também que “o ser é e o não-ser, simples ilusão, não é”.

 

Heráclito, contemporâneo de Parmênides (embora não haja registro de terem se encontrado), nasceu em Éfeso, digno representante da escola jônica. Heráclito, diferentemente, de Parmênides, não considerou a unidade material e o imobilismo como elementos originários de tudo. Pelo contrário, enxergava o mundo e a natureza como em constantes movimentos. Tudo muda o tempo todo, sendo o fluxo perpétuo, constante movimento, a principal característica da natureza. Seu pensamento foi eternizado na imagem de que “uma mesma pessoa não pode se banhar duas vezes no mesmo rio, dado que, na vez seguinte, nem ela e nem o rio seriam os mesmos”.

 

Parmênides e Heráclito se transformaram em fontes diversas e conflitantes acerca da noção da essência do ser. O que era a essência do “ser” de Parmênides é desprezado por Heráclito, adepto a mutabilidade constante e a relação mediada por um duelo permanente entre contrários, base do que seria conhecido, posteriormente, como “dialética”. Assim, enquanto Parmênides defende que não há mudança, pois as essências permanecem sempre as mesmas, Heráclito defende que a única essência é a mudança contínua das coisas, dos seres.

 

Fazendo um curso sobre Nietzsche com a filósofa Viviane Mosé, tive a oportunidade de repensar sobre este conflito entre um Parmênides, defensor de imobilismo radical e, de outro lado, um Heráclito propugnando um fluxo transformador permanente. Mais especialmente acerca de quanto esses dois caminhos, bastante distintos um do outro, podem colaborar na percepção do mundo contemporâneo.

 

Além disso, como físico, é possível interpretar a grande virada do início do século XX, com o advento da física quântica, em oposição ao mundo newtoniano, como parte do conflito acima descrito. Nietzsche pode ser visto como um visionário de algo que só viria a acontecer nas décadas seguintes à sua morte ao final do século XIX.

 

A física newtoniana se ancora no amadurecimento do método científico, representado por Galileu no século XVII (observação, lógica e experimentação). Newton transcende Galilei, introduzindo o cálculo diferencial e integral, expressando o comportamento da natureza por leis. Leis que regem a natureza, que nos contam, com precisão, como ela se comportará, independente de realizarmos a experiência. São as leis da mecânica, da termodinâmica e do eletromagnetismo, entre outras.

 

Na segunda metade do século XIX, período de Nietzsche e tantos outros pensadores relevantes, há uma crença enorme na potência da chamada ciência moderna, ao ponto de alguns acreditarem que as ciências humanas poderiam reproduzir, em termos de método, aquilo as ciências da natureza teriam atingido. Nietzsche reconhecia naquela ciência as marcas de Parmênides e a visão do ser imutável. Assim, sua crítica à religião e à moral incluía, com o mesmo vigor, sua oposição à ciência da época. Segundo ele, ela seria incapaz de contemplar o fluxo perpétuo, a impermanência do ser e a dialética de Heráclito.

 

A Física Clássica, grosso modo, parte da existência em si do objeto, o ser em si, cabendo ao investigador extrair dele suas propriedades, tipicamente inerentes e imutáveis. Tão mais adequado o processo quanto mais o observador mantiver distância da coisa a ser observada, sendo a impessoalidade e a imparcialidade condições absolutamente indispensáveis ao correto processo científico.

 

A Física Quântica, surgida com a inauguração do século XX, apresenta uma nova perspectiva da ciência, impactando e aprofundando o método. O objeto, a coisa em si, carece de significado antes que alguma interação com ele ocorra. O ser não existe a priori. Ele só é passível de conhecimento à medida que com ele interagimos, medimos, testamos etc. Rigorosamente, a única aceitável definição do ser está associada aos resultados frutos das múltiplas experiências que tivemos (e medimos) com o objeto. Fora desse contexto, ele é uma abstração. Da mesma forma, observador e objeto observado se acoplam, sendo indissociáveis um do outro, relacionados entre si via uma linguagem, a linguagem construída pela Física Quântica.

 

Claro que se trata de algo muito mais sofisticado e profundo do que aquilo que cabe num parágrafo sobre algo tão complexo. A simplificação somente pretende evidenciar que a mudança de abordagem é significativa. Enquanto a clássica pretende e acredita na possibilidade da descrição perfeita do objeto em análise, a quântica, de certa forma, se permite ser vista como uma linguagem, com forte ancoragem experimental. Algo que descreve a relação entre o observador e aquilo que é observado, contemplando nas suas ferramentas indissociáveis estatísticas, indeterminações e incertezas naturalmente incorporadas. Isso tudo sem prejuízo de se saber mais do que se sabia antes. Mais do que isso, entender coisas que não seriam passíveis de serem compreendidas antes.

 

Guardadas as peculiaridades e particularidades dos tempos e das abordagens, podemos associar a Ciência Moderna, moldada na Física Clássica, como uma filha dileta de Parmênides. Por sua vez, a Física Quântica, inspirado da visão contemporânea de ciência, claramente, parece estabelecer uma coerência mais próxima com Heráclito.

 

Os tempos atuais, palco do pós-moderno, fruto da sociedade pós-industrial e inundados de fake news e de pós-verdades, podem ser vivenciados tanto à luz de Parmênides como, alternativamente, inspirados por Heráclito. A escolha é nossa. Na primeira perspectiva, tendemos a evidenciar a ausência de vida, o predomínio da ansiedade, onde, provavelmente, as frustrações são quase inevitáveis. Difícil não se sentir horrorizado sobre o presente e mais ainda sobre o futuro. Tudo parece caminhar linearmente para o fracasso, enquanto civilização.

 

Do ponto de vista de Heráclito, calcado em um universo em expansão, cuja maior característica é o fluxo, que permite até mesmo que, finda a expansão, ele se contraia novamente e repita ciclos intermináveis, se for o caso. Heráclito está presente nas palavras da arte de Lulu Santos: “…nada do que foi será, de novo do jeito que já foi um dia; tudo passa, tudo sempre passará; tudo que se vê não é igual ao que a gente viu há um segundo….”

 

Claramente, os dilemas e os desafios não se resolvem pela simples mudança do olhar, mas, certamente, entender os conflitos nas suas dimensões históricas nos consola e, se possível, ilumina. Ao menos sabemos que nós, humanos, nos permitimos enxergar as mesmas coisas de múltiplas maneiras diferentes. Cada qual escolhe suas armas interpretativas e suas bagagens de sobrevivência que permitam surfar nas ondas do mar da vida. Ou, alternativamente, com as ondas briguem, com poucas chances de vencer o mar…

 

—-

 

Figura: Monte Olimpo – representação de Zeus na Grécia Antiga

Autor: Tags: , ,

domingo, 1 de setembro de 2019 aprendizagem, Educação e Tecnologia, Ensino Superior, Inovação e Educação | 16:58

O QUE O BEBÊ VAI SER QUANDO CRESCER?

Compartilhe: Twitter

 

Será possível prever o sucesso educacional de um recém-nascido? A resposta é complexa, mas há contribuições recentes interessantes acompanhadas de um entendimento crescente sobre o assunto.

 

O tema DNA e desempenho escolar, associado à área que conhecemos como edugenômica1, é extremamente polêmico, com enormes chances de compreensões indevidas, algumas com equivocados elementos de eugenia. Porém, o risco é ainda mais grave se desconhecermos completamente os debates em curso e deixarmos de analisar e contribuir com os recentes avanços científicos na área.

 

Pesquisadores têm demonstrado que os genes do bebê influenciam significativamente o seu posterior desempenho ao longo da vida escolar. De fato, há estudos demonstrando que aproximadamente dois terços das diferenças no sucesso escolar podem ser explicados pela genética. Por exemplo, em 2016, cientistas publicaram na prestigiada revista Nature haver identificado 74 posições de genes que permitem prever, ainda que parcialmente, quão longe alguém poderia ir em sua vida escolar2.

 

Mais recentemente, Kaili Rimfeld et al.3 estudaram o desempenho escolar, a partir de uma amostra de 6.000 pares de gêmeos nascidos no Reino Unido. A adoção de gêmeos decorre do fato que, quando idênticos, eles compartilham 100% dos genes, enquanto, quando não idênticos, o compartilhamento é da ordem de 50%, tal como entre dois irmãos quaisquer.

 

A amostra adotada contém gêmeos, tanto idênticos como não idênticos, morando em mesma casa e em casas diferentes, incluindo até irmãos adotivos, os quais desfrutam do mesmo ambiente sem qualquer compartilhamento de DNA. Os dados obtidos pelos autores mostram que, aproximadamente, 70% do rendimento escolar decorre de fatores genéticos, enquanto os aspectos ambientais respondem por algo da ordem de 25%. Os restantes 5% podem ser explicados, segundo os autores, por demais itens, tais como amigos e professores diferentes.

 

Para estabelecer correlações envolvendo sucesso escolar, é preciso definir um critério para o que seja sucesso educacional, além de escolher quais as variáveis mais relevantes a serem consideradas. Estudos recentes apontam que, entre as múltiplas variáveis, duas delas, aparentemente, se destacam sobre as demais. Uma delas é o status socioeconômico dos pais. A segunda variável é o DNA herdado, que, recentemente, tem sido evidenciado ter nível similar de relevância à primeira.

 

Os pesquisadores Sophie von Stumm et al.4, em artigo ainda não publicado, mas já disponibilizado, tratam da predição de sucesso educacional fazendo uso de consistentes dados de um representativo estudo sistemático de 15.000 pares de gêmeos nascidos na Inglaterra e País de Gales, entre 1994 e 1996. No caso, a análise foi baseada em 4.890 indivíduos de origem europeia, dos quais os dados genéticos e de status socioeconômicos foram utilizados. Os dois preditores selecionados, socioeconômicos e genéticos, foram estudados, em termos de correlação com sucesso escolar, para as idades de 7, 11, 14 e 16 anos. Todas as figuras apresentadas neste texto são extraídas desse preprint.

 

O preditor de status socioeconômico dos pais, SES (do inglês parent´s socioeconomic status), embute as qualificações educacionais de ambos os pais, suas respectivas posições ocupacionais e, particularmente, a idade da mãe dos gêmeos por ocasião de sua primeira gestação. O preditor SES, assumido como representando as vantagens ambientais e de riqueza, de fato, inclui, inexoravelmente, elementos hereditários genéticos, os quais precisam ser corrigidos (correção da ordem de 50%, a partir do estudo de gêmeos) para que eles não contenham as influências do DNA.

 

O preditor das influências do DNA, agregados via os conhecidos escores poligênicos no genoma amplo (em inglês, genome-wide polygenic scores, GPS), não se altera ao longo da vida, independente de condições ambientais. GPS é representado por um número baseado na variação em múltiplos espaços genéticos e suas associações em pesos. A técnica mais recente utilizada é baseada no estudo de associação genômica ampla (em inglês, whole genome association study, GWAS), o qual é uma análise observacional de variações genéticas em todo o genoma em diferentes indivíduos para conferir se alguma variante está associada a um determinado traço.  GWASs são, tipicamente, focados em associações entre polimorfismos de nucleotídeos simples e características.

 

Como principal critério de sucesso, foram adotadas as notas obtidas ao longo do período selecionado, em especial os resultados ao final do ensino obrigatório aos 16 anos, quando os alunos realizam o exame GCSE (em inglês, General Certificate of Secondary School), correspondente ao nosso ENEM (Exame Nacional do Ensino Médio). De acordo com os resultados obtidos na pesquisa referida, tanto para o SES como o GPS, as predições se mostraram efetivas, em termos de impactos no desempenho educacional, desde o primeiro ano da educação primária, sendo consistentes até a conclusão do ensino médio.

 

Entre os jovens com altos SES e GPS, 77% ingressaram na universidade, enquanto somente 21% com baixos SES e GPS seguiram o mesmo caminho. Os efeitos do status socioeconômico dos pais e aqueles decorrentes do DNA herdados podem ser isolados, resultando que o primeiro responde por 16% da variância observada (estatisticamente mensura quanto um resultado dista do valor médio esperado) e o segundo por 14%, valor bastante próximo do primeiro.

 

A Figura 1 mostra que a capacidade de previsão de sucesso educacional cresce continuamente ao longo dos anos estudados. Se a variável em estudo não tem impacto a correlação é zero. Se ela determina completamente a correlação é um. Os resultados mostram que a correlação para o preditor SES, dos 7 aos 16 anos, cresce de 0.31 até 0.48 (retirando a influência genética embutida, como estabelecido, resulta de 0.25 a 0.37). Para o preditor GPS, a correlação aumenta de 0.22 a 0.36, respectivamente.

Pode-se observar também que os escores GPS se mostram preditores mais efetivos de sucesso educacional na idade de 7 anos em crianças de famílias com baixo SES do que naqueles com SES mais altos.

 

Os autores demonstram que as implicações práticas dessas predições são mais evidentes nos casos extremos. Para o caso dos 16 anos, se dividirmos a amostras em dez partes iguais (decis), a partir dos mais baixos SES e GPS, a Figura 2 mostra o desempenho educacional, em termos dos desvios da média.

 

Observar que os resultados indicam que a diferença de desempenho entre os extremos atinge 1,5 ponto para SES e 1,2 para GES. Em termos efetivos de conceitos, isso equivale a variação do conceito C- para A, no caso decorrente da amplitude SES, e do conceito C+ para A-, no caso em função da amplitude GPS.

 

A Figura 3(a) mostra, em termos de número de indivíduos na faixa de 16 anos, os desempenhos para os decis com maiores e piores GPS. Fica evidente a significativa superposição (área cinza mais escura). Observou-se que 9% dos indivíduos do decil com GPS mais baixo demonstraram desempenhos acima da média dos indivíduos do decil com GPS mais alto. Inversamente, 10% daqueles do decil mais alto registraram desempenhos inferiores à média do decil com GPS mais baixo.

Análise semelhante para o preditor SES, conforme mostrado na Figura 3 (b), os percentuais correspondentes observados foram, respectivamente, 5% e 3%.

A Figura 4 evidencia que ao longo do percurso educacional entre 7 e 16 anos, ambos os preditores atuam continuamente, sendo que, naturalmente, seus efeitos são amplificados quando superpostos. Observar, como destaque, o fato que crianças com altos GPS tendem a compensar, relativamente, baixos SES. Esse fenômeno é mais evidente ainda para crianças com baixos GPS e altos SES.

 

Na região mista, onde os preditores são opostos, para aqueles com altos GPS é possível compensar os baixos SES, tal que que a chance de ingressarem na universidade é ampliada de 21% (baixos SES e GPS) para 47%. Para aqueles com baixos GPS, eles podem compensar mais ainda tendo altos SES, resultando que 62% ingressam no ensino superior. Lembrar que, para efeito comparativo, para altos GPS e SES, 77% vão para universidades.

Portanto, a principal conclusão dos pesquisadores é que a influência do DNA do bebê, herdado geneticamente, expresso no preditor GPS, é poderoso indicador do futuro sucesso escolar, sendo aproximadamente da mesma ordem do preditor socioeconômico dos pais, via o preditor SES.

 

Além disso, testes de DNA dos bebês, em princípio, podem identificar eventuais riscos de desenvolvimento de dificuldades em leitura, ou outras áreas de aprendizagem, permitindo intervenção educacional o mais cedo possível. Ou seja, trilhas educacionais personalizadas podem ser construídas levando em conta características genéticas determinadas previamente.

 

É preciso alertar que os estudos apresentados se limitam a um grupo específico e um critério de sucesso educacional é definido, baseado em notas escolares de 7 a 16 anos, especialmente associados ao ingresso no ensino superior.

 

O ser humano tem potencialidades, em termos de atributos e talentos, que não estão incluídos no escopo do trabalho específico aqui referido. Conhecer estes e outros resultados permite traçar estratégias que viabilizem democratizar oportunidades e minorar discrepâncias.

 

Por fim, cabe destacar que a amostra adotada, em tese, poderia ter contemplado quatro meninos de classe média baixa de Liverpool, os quais teriam SES e, talvez, GPS, cumulativamente baixos. Provavelmente, teriam confirmado a baixa expectativa de sucesso educacional. Mesmo assim, certamente, nenhum outro indivíduo da amostra de milhares selecionados teria chegado próximo ao sucesso, no sentido amplo da palavra, que os Beatles tiveram, consagrando-se como um dos maiores fenômenos de todos os tempos.

 

Aqueles bebês de Liverpool, bem como tantos outros exemplos semelhantes, não invalidam os resultados da pesquisa, mas chamam a atenção dos pesquisadores de que eles, necessariamente, enxergam somente traços simples ou elementos parciais de realidades humanas, as quais são, de fato, bem mais complexas.

 

 

Referências:

[1] Ronaldo Mota, “Educational genomis: academic achievements and DNA”, Brazil Monitor, 21 de fevereiro (2018). Acessível em: http://www.brazilmonitor.com/index.php/2018/02/21/educational-genomics-academic-achievements-and-dna/.

 

[2] Aysu Okbay et al., “Genome-wide association studu identifies 74 loci associated with educational attainment”, Nature 533, 539-542 (2016), Acessível em: https://www.nature.com/articles/nature17671.

 

[3] Kaili Rimfeld et al., “The stability of educational achievement across school years is largely explained by genetic factors”, Science of Learning, (3), 16  (2018). Acessível em:  https://www.nature.com/articles/s41539-018-0030-0.

 

[4] Sophie von Stumm et al., “Predicting educational achievement from genomic measures and socioeconomic status”, preprint disponível em: https://www.biorxiv.org/content/10.1101/538108v1,

 

Autor: Tags: , , ,

segunda-feira, 19 de agosto de 2019 Sem categoria | 10:08

“NÃO SAIAM SEM NOS DAR TCHAU”

Compartilhe: Twitter

Vivemos, atualmente, no Brasil o risco efetivo de uma fuga em massa de cérebros, o que significaria cristalizar de vez nossa dificuldade extrema de competirmos, em termos de produtos e serviços, em escala global. Sem ciência, sem inovação e sem capacidade tecnológica instalada, estaríamos decretando nosso destino de sermos um país, na melhor das hipóteses, exportador de matérias-primas e de alimentos sem valor agregado. Assim, em um mundo impregnado pelos avanços das tecnologias digitais e suas consequências na vida cotidiana, ocuparíamos, enquanto nação, o espaço de meros passivos e acríticos consumidores.

 

Este êxodo em curso acelerado é fruto da queda nos investimentos em pesquisa, tanto pura como aplicada, e em inovação, seja ela tecnológica ou não. Na verdade, os dados apontam que as verbas destinadas às agências de fomento à pesquisa e à inovação têm caído nos últimos anos, mas, neste ano, a situação se agravou mais ainda. Em 2019, configura-se um contingenciamento de 30% no Ministério da Educação (MEC) e de 42% na pasta de Ciência e Tecnologia (MCTIC).

 

Um dos principais afetados é o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que provê parte relevante dos recursos à pesquisa científica. A título de exemplo, um dos programas mais estratégicos do CNPq é o de Bolsa de Pesquisa e Produtividade. O Programa é de custo relativamente barato, mas de estímulo crucial àqueles que se dedicam à produção de conhecimento de ponta no país. São menos de uma centena de milhares de pesquisadores, os quais passam pelo exigente crivo de comitês de especialistas, que respondem pela maior parte do conhecimento de fronteira que é produzido no cenário acadêmico nacional.

 

Com os cortes recentes, as bolsas de pesquisa têm sido pagas por suplementações emergenciais, mas sem nenhuma garantia da continuidade do próprio Programa. Ou seja, mesmo que, esperançosamente, findem por receber, os cientistas já se sentem suficientemente frustrados a ponto de procurarem, de imediato, oportunidades no exterior. São naturalmente atraídos por novos espaços onde possam, com maior tranquilidade, se dedicar às suas tarefas, que demandam condições adequadas de trabalho, persistência, concentração e respeito mínimo.

 

O Governo Federal prometeu elevar o investimento em ciência e tecnologia a 3% do PIB até o fim do atual mandato, mas a realidade, ao menos até aqui, tem sido bem diferente. O orçamento está em queda e distante de superarmos um percentual pouco acima de 1% do PIB, aqui considerando o total geral investido, tanto pela União como pelo setor privado.

 

Um apagão de investimentos, somado a um estado geral de desalento espalhado pela comunidade científica, podem, na prática, quebrar a coluna vertebral do sistema de ciência e tecnologia. Este sistema, construído a duras penas desde a década de 1950, tem sido um processo longo e a sua destruição pode ser muito rápida. Se isso vier a ocorrer, sua futura reconstrução é uma possibilidade ainda distante e incerta.

 

Curiosamente é sim da natureza da ciência desejáveis processos migratórios de cientistas. É muito salutar que pesquisadores tenham experiências em muitos países. Portanto, não é necessariamente ruim que nossos talentos passem períodos fora, muito menos que possamos atrair cientistas dos demais países. Ao contrário, nada mais salutar do que esses intercâmbios, mas eles devem ser frutos de um processo estimulado e planejado; jamais motivados, unicamente, pela desesperança com a realidade local. Pior, muitas vezes, sem deixar laços que permitam compartilhar de forma multilateral os avanços futuros no conhecimento.

 

Escrevo isso porque é preciso também ficar. Insisto porque é preciso, mais do que nunca, resistir. Tudo vale a pena, dado que há uma nação em construção que demanda ampliar seu nível de produtividade, que se reflita em produtos e serviços competitivos globalmente. Não temos como fazê-lo sem estarmos ancorados em profissionais preparados e fazendo uso e gerando produções científicas e tecnológicas no estado da arte.

 

Em outras palavras, em nome de quem fica, dado que, voluntariamente, ficaremos, por favor: “não saiam sem nos dar tchau”.

 

Autor: Tags:

sábado, 3 de agosto de 2019 Sem categoria | 02:37

A impermanência e a esperança

Compartilhe: Twitter

 

O mundo contemporâneo nos apresenta desafios complexos e, muitas vezes, nada confortáveis. O Brasil, neste contexto atual, torna alguns deles mais complicados ainda. Portanto, é bastante compreensível que a situação nacional desperte em cada um de nós algo que se aproxima de um sentimento de angústia e de falta de esperança.

 

As ações no sentido de alterar o quadro vigente, em todos os campos, são imprescindíveis e insubstituíveis. Mesmo assim, é fundamental que tenhamos todos a devida calma, permitindo que as mudanças ocorram e que elas sejam efetivas e adequadas. Para tanto, na expectativa da lucidez produtiva, há que se procurar inspiração onde quer que ela seja possível.

 

Não há receitas milagrosas ou únicas, tampouco soluções prontas, para tratar desse justificável sentimento de ansiedade com o estado atual das coisas. Neste sentido, entre várias possíveis abordagens, o budismo pode ser contributivo na percepção da realidade, via o conceito chave de “impermanência”.

 

No budismo é assumido que “nada é permanente, a não ser a própria impermanência das coisas”. Assim, o conceito de impermanência está estritamente ligado ao da variância do mundo. Ou seja, nada é permanente ao longo do tempo. Tanto as causas como as condições se alteram constantemente e o seu resultado, inexoravelmente, também varia. Este complexo conceito dentro da tradição budista pode contribuir com a adequada percepção da realidade atual.

 

A impermanência, a partir da ótica budista, deve ser vista conectada a um outro conceito, a onisciência, conhecida como “a plena atenção”.  A onisciência possibilitaria ao seu praticante perceber a impermanência do mundo e assim se libertar de apegos àquilo que em sua essência é variante, e, portanto, causa de sofrimento. Apesar das duas visões serem próximas, o fato de se introduzir o elemento de consciência no processo permite atingir a necessária percepção da variância do mundo.

 

Segundo o budismo, todos os fenômenos são impermanentes e nada no universo perdura para sempre, tudo se transforma continuamente e caminha para a própria dissolução. Consequentemente, é indicado não nos apegarmos demais às coisas, pois, afinal, todas as coisas são temporárias. O apego gerará, inevitavelmente, sofrimento, dado que nada perdura para sempre.

 

Os pensamentos acima podem ser traduzidos em três níveis de reconhecimento, detalhados, de forma simples, da seguinte maneira: i) As coisas não duram, isto é, elas, constantemente, surgem e desaparecem. As coisas boas acabam e as coisas ruins acabam, bem como as coisas neutras também acabam; ii) As coisas se transformam, mesmo enquanto elas duram. Elas nunca são as mesmas, elas estão em constante alteração; iii) As coisas não têm sustentação plena ou continuidade absoluta. Embora elas pareçam surgir e se transformar, de fato, esses fenômenos se dão por causas que, por sua vez, também estão sujeitas a transformações e surgimentos-desaparecimentos. Não há uma substância subjacente permanente que perdure por trás de qualquer ocorrência.

 

Claro que o budismo é muito mais profundo e complexo do que a simplificação superficial que este limitado espaço permite e que o autor, inexperiente no tema, alcança. A ideia, quase ingênua, é tentar contribuir para que a nossa quase generalizada angústia possa dar espaço a pensamentos racionais e a imprescindível esperança nas mudanças sempre em curso.  Neste momento da história política do país o que mais precisamos é de racionalidade ativa. Que a inspiração, calcada na sabedoria budista, possa ser, eventualmente, útil. Afinal, são reflexões milenares sobre este universo, felizmente em constante transformação.

 

Representações artísticas destes pensamentos podem ser encontradas em diversas obras. Unicamente como ilustração, destaco a canção “Como uma onda”, de Lulu Santos (1983). Quem tiver a oportunidade de rememorá-la agora perceberá que a arte pode ser mais eficiente do que todas estas palavras.

 

Autor: Tags:

terça-feira, 30 de julho de 2019 aprendizagem, Educação e Tecnologia, Inovação e Educação | 07:35

Metacognição é coisa de criança

Compartilhe: Twitter

 

Não há uma definição simples para metacognição. O prefixo grego “meta” induz que metacognição deva ir além da cognição ou tratar-se de reflexão sobre ela. Cognição, por sua vez, está associada, de maneira simplificada, ao processo de aquisição de conhecimento, baseado em um conjunto de habilidades mentais, entre elas, a memória.

 

Talvez pelo aspecto transcendente à cognição, muitos assumam que metacognição é coisa exclusivamente de adulto, gente madura e preparada. Porém, a máxima relevância educacional da metacognição é, surpreendentemente, para crianças e jovens.

 

As habilidades metacognitivas do aprendiz, em qualquer idade, incluem estimular a reflexão sobre a própria aprendizagem, implicando em autorreflexão e atividades, incluindo lúdicas, em equipe.  A prática de entender o outro, desde criança, promove a aprendizagem colaborativa, indispensável em um cenário de aprendizagem permanente ao longo da vida. Na fase pré-escolar, a família e o entorno social desempenham papel primordial. Consequentemente, em contextos em que a escolaridade dos pais torna difícil essa tarefa, políticas públicas específicas são imprescindíveis.

 

James Heckman, no ano 2.000, foi contemplado com o Prêmio Nobel de Economia por evidenciar a relação entre desigualdade social e o estímulo educacional a crianças de zero a cinco anos. Segundo Heckman, há forte correlação entre a criança adequadamente estimulada nessa fase e seu posterior desempenho escolar, sucesso profissional e menor envolvimento em crimes. Em outras palavras, quanto mais as crianças, de todas as classes sociais, adquirem as competências, tanto cognitivas como metacognitivas, menor tendem a ser as desigualdades sociais entre elas no futuro.

 

Lev Vygotsky (1896-1934) tratou dos processos de controle na aquisição do conhecimento que podem ser considerados precursores daquilo que vem a ser conhecido, atualmente, como metacognição. Particularmente, naquilo que ele denominava Zona de Desenvolvimento Proximal, a fronteira entre o conhecimento que o aprendiz pode atingir de forma independente e aquele que demanda orientação que interfere diretamente no processo. Assim, de forma programada, o docente ou os pais assumem a responsabilidade dos processos cognitivos até que as crianças ou os jovens se sintam, progressivamente, suficiente confortáveis em tomarem para si a gestão de suas próprias aprendizagens.

 

Na década de 1970, o psicólogo John Flavvel e outros pesquisadores retomaram de forma mais intensa esse debate, agora à luz da metacognição, a qual descreviam como sendo “o conhecimento acerca do próprio processo cognitivo”, ou, em outras palavras, “o aprender a aprender”. Posteriormente, o conceito foi ampliado para referir-se à consciência do educando acerca de seu conhecimento, incluindo suas convicções e a percepção de áreas a serem desenvolvidas. Nesse contexto, contemplando, especialmente, a sua habilidade de refletir sobre o planejamento, o gerenciamento, a avaliação e a definição consciente dos rumos da própria aprendizagem.

 

Inspirado pelos pensamentos de Vigotsky e Flavvel, David Perkins, na década de 1990, tratou do tema central do reconhecimento das quatro etapas da consciência do aprendiz sobre sua própria aprendizagem.

 

Aprendizes tácitos estariam associados a primeira etapa, quando eles ainda não têm consciência plena de desenvolvimentos metacognitivos, estando dispensados de pensar sobre uma estratégia particular de aprendizagem. Caracterizando-se esta etapa por estímulos aos desenvolvimentos baseados em espontaneidades intuitivas, incluindo atividades domésticas, leituras, brinquedos, desenhos etc.

 

Aprendizes conscientes diriam respeito à segunda etapa, quando já são capazes de generalizar ideias, explorar evidências, mesmo quando esses pensamentos ainda não são totalmente deliberados ou planejados.

 

Educandos estratégicos corresponderiam à terceira etapa, na qual eles já conseguem organizar conscientemente seus pensamentos, via solução de problemas, fazendo uso de classificações, evidências e tomadas de decisões.

 

Por fim, temos a última etapa, educandos reflexivos, aptos não só a refletirem sobre a própria aprendizagem enquanto ela se desenvolve, mas capazes de, à luz do sucesso ou insucesso das estratégias educacionais adotadas, revê-las e adotarem trilhas apropriadas alternativas.

 

As faixas etárias e os ambientes, escolares ou familiares, permitirão adaptações e ênfases em cada uma dessas etapas, mas a visão da importância de explorar processos metacognitivos é essencial para prepararmos profissionais e cidadãos capazes de enfrentar desafios, quaisquer que eles sejam.

 

Se o século passado demandava domínio de conteúdos, técnicas e procedimentos, muitos deles baseados em processos cognitivos simples, o mundo contemporâneo privilegia pessoas cujos processos formativos, desde a primeira infância, se vinculem a estimular a capacidade de aprender  a aprender continuamente, coerente com um ambiente de aprendizagem permanente ao longo de toda a vida.

 

Autor: Tags: , , , , , , , ,

  1. Primeira
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7. 10
  8. Última