BCI: A fronteira final da tecnologia de leitura mental está muito próxima

BCIYoutube
Compartilhe esta história!
image_pdfimage_print
Os tecnocratas estão se esforçando muito para penetrar em sua mente e ler seus pensamentos. As interfaces cérebro-computador, juntamente com a IA, terão uma enorme demanda corporativa e você perderá toda a privacidade. ⁃ Editor TN

As empresas de mídia social já podem usar dados on-line para fazer suposições confiáveis ​​sobre gravidez ou ideação suicida - e a nova tecnologia da BCI aumentará ainda mais isso.

IEstá chovendo em sua caminhada até a estação depois do trabalho, mas você não tem um guarda-chuva. Pelo canto do olho, você vê uma capa de chuva na vitrine de uma loja. Você pensa: "Uma capa de chuva como essa seria perfeita para um clima como esse".

Mais tarde, enquanto você navega no Instagram no trem, você vê uma jaqueta de aparência semelhante. Você olha mais de perto. Na verdade, é exatamente o mesmo - e é um post patrocinado. Você sente uma repentina onda de paranóia: você disse algo em voz alta sobre a jaqueta? O Instagram de alguma forma leu sua mente?

Embora os algoritmos das mídias sociais às vezes pareçam nos "conhecer" de maneiras que podem parecer quase telepáticas, em última análise, suas percepções são o resultado de uma triangulação de milhões de registros online externalizados gravados ações: cliques, pesquisas, curtidas, conversas, compras e assim por diante. Esta é a vida sob vigilância do capitalismo.

Por mais poderosos que os algoritmos de recomendação se tornaram, ainda assumimos que nosso diálogo mais interno é interno, a menos que seja divulgado de outra forma. Mas os recentes avanços na tecnologia da interface cérebro-computador (BCI), que integra atividade cognitiva a um computador, podem desafiar isso.

No ano passado, os pesquisadores demonstraram que é possível traduzir diretamente da atividade cerebral em fala ou texto sintético gravando e decodificando os sinais neurais de uma pessoa, usando algoritmos sofisticados de IA.

Embora essa tecnologia ofereça um horizonte promissor para aqueles que sofrem de condições neurológicas que afetam a fala, esta pesquisa também está sendo acompanhada de perto., e ocasionalmente financiado, por empresas de tecnologia como o Facebook. A mudança para as interfaces cérebro-computador, eles propõem, oferecerá uma maneira revolucionária de se comunicar com nossas máquinas e entre si, uma linha direta entre mente e dispositivo.

Mas será que o preço que pagamos por esses dispositivos cognitivos será uma incursão em nosso último bastião da privacidade real? Estamos prontos para renunciar à nossa liberdade cognitiva por serviços on-line mais otimizados e anúncios mais segmentados?

Um BCI é um dispositivo que permite a comunicação direta entre o cérebro e uma máquina. Fundamental para essa tecnologia é a capacidade de decodificar sinais neurais que surgem no cérebro em comandos que podem ser reconhecidos pela máquina.

Como os sinais neurais no cérebro costumam ser barulhentos, a decodificação é extremamente difícil. Enquanto as duas últimas décadas viram algum sucesso decodificando sinais sensoriais-motores em comandos computacionais - permitindo feitos impressionantes como em movimento um cursor na tela com a mente ou manipulando uma atividade robótica braço-cérebro associada a outras formas de cognição, como a fala, permaneceu complexa demais para decodificar.

Mas os avanços no aprendizado profundo, uma técnica de IA que imita a capacidade do cérebro de aprender com a experiência, estão mudando o que é possível. Em abril deste ano, uma equipe de pesquisa da Universidade da Califórnia, San Francisco, publicado resultados de uma tentativa bem-sucedida de traduzir a atividade neural em fala por meio de um BCI com aprendizado profundo.

A equipe colocou pequenas matrizes eletrônicas diretamente no cérebro de cinco pessoas e registrou sua atividade cerebral, bem como o movimento de suas mandíbulas, bocas e línguas enquanto liam em voz alta os livros infantis. Esses dados foram usados ​​para treinar dois algoritmos: um aprendeu como os sinais cerebrais instruíam os músculos faciais a se moverem; o outro aprendeu como esses movimentos faciais se tornaram um discurso audível.

Depois que os algoritmos foram treinados, os participantes foram novamente convidados a ler os livros infantis, desta vez apenas imitando as palavras. Usando apenas dados coletados da atividade neural, os sistemas algorítmicos podiam decifrar o que estava sendo dito e produzir versões sintéticas inteligíveis das sentenças simuladas.

Leia a história completa aqui…

Junte-se à nossa lista de endereços!


avatar
1 Comentar tópicos
0 Respostas do Tópico
0 Seguidores
Comentário Mostv¯ve
Tópico de comentário mais quente
0 Autores de comentários
Autores recentes de comentários
Subscrever
o mais novo mais velho mais votado
Notificar a