A trajetória moderna da humanidade foi marcada por diversos pontos de inflexão. A invenção da eletricidade, da lâmpada, do telégrafo, do computador e da internet, entre outros, marcaram novos marcos irreversíveis em nosso modus vivendi. A recente introdução do ChatGPT pode, no entanto, revelar-se mais do que um ponto de inflexão. Pode ser um disruptor permanente em nosso modo de vida; isso é Choque e birras wokist a despeito de.
O ChatGPT é agora o aplicativo de consumidor que mais cresce na história. Dois meses após seu lançamento em novembro de 2022, o ChatGPT conseguiu reunir mais de 100 milhões de usuários. Seu desenvolvedor OpenAI, que começou com 375 funcionários e pouca receita, agora está avaliado em US$ 30 bilhões e contando.
Como funciona? De um modo geral, o ChatGPT agrega dados de fontes online e sintetiza respostas a uma consulta dentro de segundos. Atualmente, é o mais versátil de um estábulo de novos modelos de linguagem grandes alimentados por inteligência artificial. Ele pode compor notas musicais, escrever códigos de software, resolver equações matemáticas, escrever romances, ensaios e dissertações, entre uma série de outras tarefas. Ele pode ser usado por cientistas para traduzir seus trabalhos originais – escritos em um idioma nativo – para o inglês. À medida que as ferramentas de IA como o ChatGPT evoluem, elas podem suplantar a atividade humana em um espectro amplo, mas incalculável. Centenas de milhões de empregos podem estar em jogo.
Seu impacto mais imediato, entretanto, será na área de aprendizado humano e tomada de decisões.
Aprendizagem Humana
A aprendizagem humana é um processo ao longo da vida moldado por uma miríade de fatores. Estes incluem (mas não estão limitados a) experiência, instinto, interações, erros (e correções), introspecção, angústia pessoal, ousadia, tutela, dados textuais e psique individual. A maioria desses pré-requisitos são estranhos ao ChatGPT e isso inclui o axioma “sem dor, sem ganho” para o aprendizado e desenvolvimento humano.
As ferramentas de IA também não são afetadas por limitações humanas, como restrições de tempo, fadiga, “dias de folga” e doenças. Com o tempo, essas limitações levaram os humanos a delegar exigência existencial de pensar e aprender às máquinas. A digitalização inexorável também nos tornou adeptos de saber onde ou como buscar informações em vez de aprender a reter essas mesmas informações. Quantos de nós memorizamos os números de telefone de nossa família, colegas de trabalho e amigos hoje em dia? Uma muleta digital agora é indispensável para navegar pelas estradas (por exemplo, Waze, Google Maps), cozinhar (canais de vídeo), consertar eletrodomésticos (canais DIY) e uma série de outras atividades mundanas. Nossas tarefas diárias estão rapidamente se tornando mais mecanicista, eliminando nossa capacidade de criar algo novo ou revolucionário. Estamos nos tornando extensões de nossas máquinas, e não vice-versa. Como resultado, a humanidade agora está enfrentando uma era de estupor coletivo e conformidade.
Não há melhor maneira de avaliar como as ferramentas de IA podem afetar nossas faculdades de pensar e aprender do que observar o impacto do ChatGPT no setor educacional global. Alunos e educadores agora estão usando o ChatGPT como um suplemento educacional, uma ferramenta de trapaça ou como uma muleta digital.
Um recente vistoria pela Walton Family Foundation e a Impact Research descobriu que a maioria dos professores (51%) e muitos alunos já estão usando o ChatGPT nas escolas. Outra pesquisa envolvendo 1,000 faculdades nos EUA descobriu que 30% dos alunos usaram o ChatGPT para tarefas escritas, com 60% deles usando-o em “mais da metade de suas tarefas”. O ChatGPT passou muitos exames de alto nível, incluindo o exame de MBA da Wharton, exame de licenciamento médico nos EUA, vários exames de direito e uma final na Stanford Medical School.
Fábricas de papel também pode usar o ChatGPT para fabricar artigos e relatórios científicos. Pesquisadores que usam esses dados artificiais ou que falsificam deliberadamente o processo de pesquisa por meio de IA generativa podem acabar promovendo políticas e produtos prejudiciais à sociedade. O mundo não pode pagar outra coronapischose!
Em suma, alunos e professores estão cada vez mais intimidados pela IA Todo-Poderosa. A IA eleva a fasquia para estudantes, professores e uma variedade de profissionais. Classificar artefatos genuínos também está se tornando cada vez mais difícil.
As Christopher Kanan, Professor Associado de Ciência da Computação na Universidade de Rochester observou recentemente: “Fica mais difícil descobrir quem sabe o quê e quem está recebendo ajuda de coisas como o ChatGPT.” Algumas escolas em Nova York, Hong Kong, Bangalore e em outros lugares proibiram os alunos de usar o ChatGPT em suas tarefas devido a preocupações com “plágio”, trapaça e desinformação.
Embora o ChatGPT seja uma ótima ferramenta para estudar conceitos complexos e vertentes de integração de conhecimento, na realidade, pode transformar a maioria dos usuários em consumidores dóceis de dados gerados por IA. A passividade prolongada mediada digitalmente atrofia a faculdade de pensar.
Outra desvantagem do ChatGPT é seu potencial de ampliar a tão debatida divisão digital. Candidaturas a empregos, promoções, bolsas de estudo, etc., irão favorecer esmagadoramente os que têm recursos digitais em detrimento dos que não têm recursos digitais, especialmente quando as taxas de assinatura são exigidas para o acesso.
No momento, os educadores não conseguem definir os limites éticos do ChatGPT e estão adotando uma atitude de esperar para ver. A própria estrutura ética pode ser escrita por ou com a ajuda de ferramentas como o ChatGPT. Aini Suzana Ariffin, Professora Associada de Estudos Políticos na Universiti Teknologi Malaysia, está convencida de que os educadores não precisam ficar alarmados. “Uma estrutura ética para ferramentas de IA generativas como o ChatGPT resolverá o que aumenta o processo de aprendizado e o que o impede. Isso pode levar tempo e envolverá muito debate, mas é melhor começarmos agora.”
Tomada de decisão humana
O governo de Cingapura anunciou recentemente que seus funcionários públicos começarão a usar o ChatGPT para aliviar sua carga de trabalho. Isso faz sentido, pois tarefas repetitivas ou mundanas podem ser aceleradas por ferramentas de IA. No entanto, à medida que as ferramentas de IA generativas se tornam exponencialmente mais inteligentes e eficientes – como de fato serão – o complexo de governança pode ser gradualmente usurpado por máquinas. Essa forma emergente de ordenamento social é chamada de “algocracia”; aquele em que algoritmos, especialmente IA e blockchain, são aplicados em todo o espectro do governo. Algocracy inevitavelmente implica governança preditiva. A polícia de Berlim já incorporou uma forma embrionária de algocracia em sua policiamento preditivo sistema. Será que estamos enfrentando um Minority Report sociedade em um futuro próximo?
O ChatGPT também acelera o fluxo de informações para os níveis de tomada de decisão do ápice de um governo ou organização - contornando os papéis tradicionais de guardião das burocracias nos níveis intermediários. Embora isso possa ser anunciado como um desenvolvimento bem-vindo contra a burocracia, a falta de freios e contrapesos tradicionais pode levar a decisões peremptórias com implicações socioeconômicas lamentáveis. Imagine transplantar um sistema algocrático de tomada de decisão para a infraestrutura de armas nucleares de uma superpotência militar?
O ChatGPT também corre o risco de violar a privacidade e vazar dados pessoais em setores como bancos e saúde. A eficácia das ferramentas generativas de IA é alimentada por um volume cada vez maior de dados que são constantemente repetidos em suas redes neurais. Essa busca por precisão, eficiência e velocidade pode resultar no comprometimento de dados privados como parte do processo de aprendizado de máquina.
Na área da saúde, consentimento informado aos cuidados de saúde assistidos por IA podem ser reduzidos, pois os pacientes podem não entender o que estão consentindo ou podem confiar demais em um sistema baseado em máquina “inteligente e imparcial”. Fica mais ameaçador quando a triagem é empregada em situações críticas. Tradicionalmente, a triagem é determinada pela integridade e habilidades do pessoal médico presente, bem como pelos recursos disponíveis no local. Um algoritmo, no entanto, pode organizar a triagem de forma imparcial com base no “valor para a sociedade” de um paciente; expectativa de vida inferida por dados; e custos associados a salvar a vida do paciente.
As dimensões éticas da triagem mediada por IA não foram resolvidas. No entanto, vale a pena notar que o co-fundador da Microsoft, Bill Gates, é a favor de painéis da morte para os doentes terminais que “não têm benefícios para a sociedade” e cuja preservação pode ostensivamente compensar os empregos de “cem mil professores”. Ampliando ainda mais essa lógica, podemos testemunhar um mandato futuro para “bebês inteligentes” que supostamente povoarão uma “sociedade inteligente”. Algoritmos sofisticados do futuro podem separar os ricos genéticos dos pobres por meio de testes de DNA fetal e ferramentas como o diagnóstico genético pré-implantação (PGD). Esse ímpeto eugênico foi eufemisticamente chamado de “beneficência procriativa”. Aliás, Bill Gates apoiou financeiramente uma empresa chinesa que está trabalhando na criação de “super bebês”. É de se admirar que a Microsoft seja o principal financiador da OpenAI?
No final das contas, uma estrutura ética de IA será obstruída por Tech Titans que podem determinar o design, os parâmetros e os objetivos das ferramentas generativas de IA? Ou nossos líderes eleitos tentarão buscar uma coexistência sinérgica entre IA e humanos.
ChatGPT pode ter consequências irreversíveis. Os tecnocratas não se importam com o estado mental e psicológico da população, e estão fazendo isso de qualquer maneira, apesar das realizações discutidas no artigo. Eles não podem ajudar a si mesmos. Eles querem que a população fique presa no pensamento de grupo, em ideologias inúteis baseadas no controle e fizeram questão de ter o individualismo intimidado e eliminado tanto quanto possível. Eles gostam de simulações e aproximações enquanto estão na mentalidade de padrões e modelos de pensamento reducionistas materiais, todos os quais negam a natureza do Espírito, quem realmente somos. Então, eles são existencialmente imaturos e perigosos, ligados a uma série de... Leia mais »
Bons pontos. Os inventores das coisas más, sem dúvida, querem que todos estejam de acordo com o diabo e o anticristo também. É por isso que não confio na maioria dos avanços médicos ou tecnológicos de hoje. Está claro como o dia para mim que tudo está levando ao sistema da besta e à grande tribulação.
Um bom. Vejo muitos jovens já presos em uma matriz mental da qual não conseguem sair.
Eles não podem tirar conclusões lógicas simples e simplesmente ignoram a realidade documentada.
Mas o problema para nós é como nos livrarmos deles? Eles estão pendurados como chumbo sobre nós para fazer sua visão de mundo simples.
Não podemos continuar uma vida negativa como enfermeiras psicológicas para 3-5 bilhões de deficientes mentais que pensam que são estrelas de cinema como nômades digitais.
[…] Leia o artigo original […]
O ChatGPT pode aprender sem o meu envolvimento. E posso aprender sem sua ajuda. Pensando bem. O ChatGPT está aprendendo mais gratuitamente pesquisando bancos de dados para consultas das pessoas que o utilizam. Não quero conhecer o CharGPT. Também não quero que o ChatGPT saiba da minha existência. A tecnologia moderna pode ser uma coisa boa quando criada por pessoas éticas com boas intenções. Mas quando está claro como o dia que o diabo está nos detalhes. Estou me afastando de qualquer coisa ou pessoa em que ele tenha as mãos.
[…] O ChatGPT pode ter consequências irreversíveis no aprendizado e na tomada de decisões […]
[…] O ChatGPT pode ter consequências irreversíveis no aprendizado e na tomada de decisões […]
Este programa representa o último prego no caixão do emburrecimento da humanidade, logo após a educação pública. Os buscadores da verdade devem agora se tornar vigilantes quando online, saber de onde os fatos surgiram originalmente sobre os assuntos e construir uma biblioteca de conhecimento pessoal que pode ser compartilhada para que, quando virmos informações repetidas pelo 'ChatCrap', reconheçamos como tal e as evitemos . Isso não deve ser muito difícil no início até que os tiranos bloqueiem o acesso à informação real, que sabemos que está chegando. Até então, existem tantos detentores de conhecimento online que investigam... Leia mais »
“ChatGPT pode ter consequências irreversíveis para aprendizagem e tomada de decisão”……
Já passamos MUITOOOOOOOOO, devido aos nossos SKOOLS (escrito de propósito)!!
[…] O ChatGPT pode ter consequências irreversíveis no aprendizado e na tomada de decisões […]
[…] O ChatGPT pode ter consequências irreversíveis no aprendizado e na tomada de decisões […]
[…] 15 DE MARÇO DE 2023 | O CHATGPT PODE TER CONSEQUÊNCIAS IRREVERSÍVEIS NA APRENDIZAGEM E TOMADA DE DECISÕES […]