Gizmodo Brasil |
- O malware do futuro terá superpoderes de inteligência artificial
- Zoológicos que permitem que visitantes tenham contato direto com animais podem estar repletos de superbactérias
- Idealizado por cofundador da Microsoft, avião com maior envergadura de asas do mundo faz seu primeiro voo de teste
- Polícia norte-americana estaria usando dados de localização do Google para identificar suspeitos
O malware do futuro terá superpoderes de inteligência artificial Posted: 14 Apr 2019 03:08 PM PDT Nos últimos dois anos, aprendemos que os algoritmos de aprendizado de máquina podem manipular a opinião pública, causar acidentes de carro fatais, criar pornografia falsa e manifestar comportamentos extremamente sexistas e racistas. Agora, ameaças de segurança cibernética que usam aprendizagem profunda e redes neurais estão surgindo. Estamos apenas começando a vislumbrar um futuro no qual os criminosos cibernéticos enganam as redes neurais para levá-las a cometer erros fatais e usam o aprendizado profundo para ocultar o malware e encontrar seu alvo entre milhões de usuários. [foo_related_posts] Parte do desafio em proteger os aplicativos de inteligência artificial reside no fato de que é difícil explicar como eles funcionam, e até mesmo as pessoas que os criam frequentemente têm problemas para entender seu funcionamento interno. Mas, a menos que nos preparemos para o que está por vir, vamos aprender a respeitar e reagir a essas ameaças da maneira mais difícil. Na mira das inteligências artificiaisEm 2010, os Estados Unidos e Israel lançaram o Stuxnet, um malware destinado a incapacitar a infraestrutura nuclear do Irã. O Stuxnet foi projetado para se espalhar autonomamente, mas para liberar sua carga maliciosa somente se ele se encontrasse dentro de uma configuração de rede idêntica à da instalação nuclear do Irã em Natanz. O programa Stuxnet ainda é um dos vírus mais sofisticados já criados, e o ataque altamente direcionado só foi possível graças às informações e recursos disponíveis para as agências de inteligência. Mas na era da IA, a criação de malwares direcionados pode ser tão fácil quanto treinar uma rede neural com imagens ou amostras de voz do alvo pretendido. Em agosto passado, os pesquisadores da IBM apresentaram o DeepLocker, um malware que usava redes neurais profundas para ocultar sua carga maliciosa. Ele é uma variação do ransomware da WannaCry, que só era ativado quando detectava seu alvo. Eles incorporaram o DeepLocker em um aplicativo de videoconferência aparentemente inocente. Em um cenário hipotético, o aplicativo poderia ser instalado e usado por milhões de usuários sem manifestar qualquer comportamento malicioso. Enquanto isso, no entanto, o malware usa uma rede neural de reconhecimento facial, sintonizada na imagem do alvo pretendido, para examinar o feed de vídeo da webcam do computador para identificar o seu alvo. Assim que o rosto do alvo aparece na frente da câmera de um computador executando o aplicativo infectado, o DeepLocker ativa seu ransomware, criptografando todos os arquivos no computador da vítima. “Embora o cenário de reconhecimento facial seja um exemplo de como o malware pode alavancar a inteligência artificial para identificar um alvo, outros identificadores como reconhecimento de voz ou localização geográfica também poderiam ser usados por um malware alimentado por inteligência artificial para encontrar sua vítima”, disse Marc Stoecklin, líder pesquisador do projeto, quando a IBM divulgou suas descobertas. É fácil ver como o mesmo modelo pode ser aplicado de outras maneiras perigosas, como prejudicar ou espionar pessoas de um gênero ou raça específicos. Um aspecto ameaçador do malware com tecnologia de inteligência artificial, como o DeepLocker, é que ele usa a característica "caixa preta" do aprendizado profundo para ocultar sua carga maliciosa. Pesquisadores de segurança geralmente descobrem e documentam malwares por engenharia reversa, os ativando em condições livres e extraindo suas assinaturas digitais e comportamentais. Infelizmente, as redes neurais são extremamente difíceis de fazer engenharia reversa, o que torna mais fácil para os invasores escaparem das ferramentas e analistas de segurança. Fazendo a IA agir contra si mesmaOutra tendência crescente de ameaças baseadas em IA são os ataques adversários, nos quais os agentes maliciosos manipulam os dados de entrada para forçar as redes neurais a agirem de maneira errática. Já existem vários relatórios e estudos publicados que mostram como esses ataques podem funcionar em diferentes cenários. A maior parte do trabalho realizado nessa área é focado em enganar algoritmos de visão computacional, o ramo da inteligência artificial que permite que os computadores classifiquem e detectem objetos em imagens e vídeos. Essa é a tecnologia usada em carros autônomos, reconhecimento facial e aplicativos de câmeras inteligentes, como o Google Lens. Mas o problema é que não sabemos exatamente como as redes neurais por trás dos algoritmos de visão computacional definem as características de cada objeto, e é por isso que elas podem falhar de formas grandiosas e inesperadas. Por exemplo, alunos do MIT mostraram que fazendo pequenos ajustes em uma tartaruga de brinquedo, eles poderiam enganar os algoritmos de visão computacional para classificá-la como um rifle. Em um estudo semelhante, pesquisadores da Carnegie Mellon University mostraram que podiam enganar os algoritmos de reconhecimento facial para confundi-los com celebridades usando óculos especiais. Em outro caso, o software usado pela Polícia Metropolitana do Reino Unido para detectar pornografia infantil sinalizou imagens de dunas como fotos de nudez. Embora esses exemplos sejam relativamente inofensivos, as coisas podem se tornar problemáticas, já que as redes neurais estão sendo identificadas em um número crescente de situações críticas. Por exemplo, uma pesquisa conjunta da Universidade de Michigan, da Universidade de Washington e da Universidade da Califórnia em Berkeley, descobriu que ao colar pequenos adesivos em preto e branco em placas de "PARE", eles poderiam torná-los indetectáveis aos algoritmos de IA usados pelos carros que dirigem sozinhos. A visão humana não é perfeita e nossos olhos frequentemente falham. Mas em nenhum desses casos um humano cometeria o mesmo erro que a inteligência artificial. Todos esses estudos ressaltam um fato muito importante: embora os algoritmos de visão computacional frequentemente tenham desempenho semelhante ou superior ao dos humanos na detecção de objetos, sua funcionalidade é significativamente diferente da visão humana e não podemos prever suas falhas até que elas aconteçam. Devido à natureza secreta das redes neurais, é extremamente difícil investigar suas vulnerabilidades. Se os agentes mal-intencionados as descobrirem primeiro, por acaso ou por tentativa e erro, eles terão mais facilidade em ocultá-las e explorá-las para forçar os aplicativos de IA a falharem de maneiras prejudiciais. Esta manipulação intencional de algoritmos IA é conhecida como ataques adversários. Os ataques adversários não se limitam aos algoritmos de visão computacional. Por exemplo, os pesquisadores descobriram que os hackers poderiam manipular arquivos de áudio de uma forma que seria indetectável para o ouvido humano, mas silenciosamente enviaria comandos para um dispositivo acionado pela voz, como um alto-falante inteligente. Desbloqueio da caixa pretaPara ser claro, os ataques cibernéticos da IA ainda não viraram commodities. O desenvolvimento de malwares de inteligência artificial e ataques adversários ainda é muito difícil, e eles não funcionam de maneira consistente. Mas é apenas uma questão de tempo até que alguém desenvolva as ferramentas que os tornem amplamente disponíveis. Nós só precisamos observar como o FakeApp, um aplicativo que simplificou a troca de rosto com o uso de deep learning, desencadeou uma onda de vídeos pornográficos falsos e preocupações crescentes sobre as ameaças de falsificação e fraude baseadas em IA. Existem várias defesas propostas contra os ataques adversários. Mas até os pesquisadores admitem que nenhuma das soluções é completa, porque na maioria das vezes tentam lidar com a caixa preta da rede neural, a cutucando de ângulos diferentes para desencadear qualquer possível surpresa desagradável que elas possam guardar. Enquanto isso, o malware baseado em inteligência artificial ainda não tem solução documentada. De acordo com os primeiros pesquisadores a se conscientizarem sobre isso, não podemos nem saber se já existe um malware que funciona com IA ou não. Um componente muito importante para proteger a IA é torná-la compreensível e transparente. Isso significa que as redes neurais devem ser capazes de explicar os passos que tomam para chegar a uma decisão ou permitir que os pesquisadores façam engenharia reversa e reconstruam essas etapas. É difícil criar uma IA explicável sem comprometer o desempenho das redes neurais, mas já existem vários esforços em andamento. Isso inclui um projeto financiado pelo governo dos Estados Unidos, liderado pela DARPA, o braço de pesquisa do Departamento de Defesa americano. Regulamentações como a GDPR da União Européia e o CCPA da Califórnia exigem que as empresas de tecnologia sejam transparentes sobre suas práticas de coleta e processamento de dados e sejam capazes de explicar as decisões automatizadas que seus aplicativos tomam. A conformidade com essas regras também deve ajudar imensamente a alcançar a IA explicável. E se as empresas de tecnologia estiverem preocupadas em perder sua vantagem competitiva ao tornar compreensível o funcionamento interno de seus algoritmos proprietários, devem considerar que nada será mais prejudicial à sua reputação — e, por extensão, ao resultado final — do que um acidente de segurança atribuído a seus algoritmos de IA. Foi necessária uma crise global de manipulação de eleições em 2016 para o mundo acordar para o poder destrutivo da manipulação algorítmica. Desde então, os algoritmos de IA tornaram-se ainda mais proeminentes em tudo o que fazemos. Não devemos esperar que outro desastre de segurança aconteça antes de decidirmos resolver o problema da caixa preta da inteligência artificial. The post O malware do futuro terá superpoderes de inteligência artificial appeared first on Gizmodo Brasil. |
Posted: 14 Apr 2019 11:51 AM PDT Aquelas cabras adoravelmente mansas e outros animais bonitinhos em que você pode fazer carinho em pequenos zoológicos e fazendinhas podem não ser tão inofensivos quanto você pensa. É o que diz uma pesquisa preliminar divulgada neste fim de semana. Ela sugere que muitos animais de de estabelecimentos desse tipo poderiam abrigar e potencialmente disseminar bactérias resistentes a antibióticos, incluindo duas cepas de Escherichia coli, que causam doenças geralmente transmitidas por alimentos e infecções do trato urinário, respectivamente. [foo_related_posts] Pesquisadores de Israel, incluindo veterinários, coletaram amostras de fezes, pele, pelos e penas de mais de 200 animais de 42 espécies que viviam em um dos oito pequenos zoológicos do país. Eles, então, testaram as amostras para bactérias resistentes a mais de uma classe de antibióticos. A equipe estava interessada em identificar dois grupos de bactérias altamente resistentes a múltiplas drogas. Elas são conhecidas como Enterobacteriaceae de beta-lactamase de espectro estendido (ESBL) e Enterobacteriaceae produtora de AmpC (AmpC-E). Estas são algumas das superbactérias mais temidas, principalmente porque carregam mutações que as tornam resistentes a uma ampla variedade de antibióticos. Algumas dessas mutações também podem ser facilmente passadas para outras espécies de bactérias, através de fragmentos móveis de DNA chamados plasmídeos. Ainda mais assustador é que muitas bactérias resistentes evoluem primeiro em animais e depois infectam pessoas. Esses tipos de surtos geralmente têm sua origem na pecuária, mas ocasionalmente são causados por animais fofinhos também. Os pesquisadores, liderados por Shiri Navon-Venezia, microbiologista da Universidade Ariel, esperavam ter uma ideia mais aprofundada do risco de infecção apresentado por estes animais. “Estamos interessados na resistência a antibióticos em animais de companhia (não em animais de pecuária) e em entender a disseminação e a transmissão de patógenos resistentes a múltiplos fármacos em uma perspectiva de saúde única”, disse Navon-Venezia ao Gizmodo por e-mail. Zoológicos e fazendinhas que permitem tocar animais, acrescenta ela, oferecem muitas oportunidades para os visitantes entrarem em contato direto e indireto com esses germes. Ser lambido por um animal ou respirar em partículas de fezes suspensas no ar são algumas formas de contato, por exemplo. No total, eles descobriram que cerca de 12% dos animais amostrados tinham pelo menos uma cepa de uma bactéria ESBL ou AmpC-E vivendo neles, enquanto um quarto desses animais (3% do total) tinha várias cepas multirresistentes. Algumas das bactérias encontradas eram relativamente inofensivas, o que significa que raramente causam doenças em humanos. Mas cepas resistentes de E. coli ST656 e ST127 eram muito mais preocupantes. A ST656 é uma cepa que expele toxinas e pode causar diarreia grave e até fatal. Já a ST127 é uma das muitas cepas que causam infecções do trato urinário. Ambas são altamente virulentas. No momento, nenhuma linhagem parece causar grandes surtos com alguma regularidade. E os resultados da equipe, baseados totalmente em Israel, podem não ser totalmente válidos para outros países. Mas Navon-Venezia disse que as chances de essas e outras bactérias ESBL ou AmpC-E serem encontradas em zoológicos e fazendinhas podem ser semelhantes em qualquer país onde esses micro-organismos já são detectados em níveis altos, como no sul, leste e oeste da Europa. Nos EUA, mais de 100 surtos entre 2010 e 2015 começaram em zoológicos, fazendinhas e feiras de animais, de acordo com os Centros de Controle e Prevenção de Doenças do país. A grande maioria desses surtos nos EUA provavelmente envolveu bactérias ainda suscetíveis a antibióticos, mas é apenas uma questão de tempo (se é que isso ainda não aconteceu) até que animais de estimação e outros animais de companhia também se tornem um canal comum para essas infecções. No ano passado, um surto de Campylobacter jejuni altamente resistente, um germe que ataca o estômago, foi, no fim das análises, atribuído a filhotes de animais de estimação. Mais de cem pessoas em 18 estados adoeceram, e mais de 20 delas foram hospitalizadas. As descobertas da equipe foram apresentadas neste fim de semana no Congresso Europeu de Microbiologia Clínica e Doenças Infecciosas em Amsterdã, na Holanda. Elas ainda são preliminares, mas Navon-Venezia planeja submetê-las para publicação em um periódico revisado por pares. Enquanto isso, ela diz que sua pesquisa deve servir como um alerta precoce para que os zoológicos continuem proativos na prevenção de surtos. Ela sugere que fazendinhas e pequenos zoológicos podem tomar precauções, como manter as áreas de alimentação e consumo longe dos animais, além de reforçar a importância de lavar as mãos depois de interagir com eles. Medidas mais diligentes incluiriam monitorar ativamente os animais quanto a bactérias resistentes, bem como isolar animais que estão fazendo tratamentos com antibióticos do resto dos animais, já que eles são mais propensos a desenvolver e transportar bactérias resistentes. The post Zoológicos que permitem que visitantes tenham contato direto com animais podem estar repletos de superbactérias appeared first on Gizmodo Brasil. |
Posted: 14 Apr 2019 09:12 AM PDT O Stratolaunch é o maior avião do mundo em envergadura de asas. Ele foi idealizado pelo bilionário do Vale do Silício e cofundador da Microsoft Paul Allen, falecido ano passado. A aeronave finalmente decolou neste sábado (13) para um voo inaugural de duas horas e meia. [foo_related_posts] O Stratolaunch pesa 226 toneladas. Muito disso se deve ao seu design de fuselagem dupla e aos seus seis motores a jato de 747. Ele ostenta uma envergadura de asas sem precedentes, de 117 metros, batendo até mesmo o Spruce Goose de Howard Hughes. Ele atingiu uma velocidade máxima de voo de 304 quilômetros por hora durante seu voo matutino no sábado, após decolar do Mojave Air and Space Port, na Califórnia.
A Scaled Composites, subsidiária da Northrop Grumman, construiu o avião. Ele foi anunciado pela primeira vez em 2011 e permaneceu em solo muito além da primeira data prevista para testes, que era em 2016. Segundo a CNN, não se sabe qual foi o custo do projeto. O que se sabe é que ele é feito de material de fibra de carbono em vez de alumínio. Os custos foram reduzidos usando componentes originalmente projetados para o 747, como os motores Pratt & Whitney e suas 28 rodas. Mas, afinal, qual a necessidade de um avião desses? Apenas alguns poucos aviões de fuselagem dupla foram desenvolvidos nas últimas décadas. A resposta é voo espacial. A embarcação é projetada para carregar até três foguetes a aproximadamente 35 mil pés no ar, onde eles podem ser lançados a ar a um custo menor e com menos sobrecarga do que em uma plataforma de lançamento tradicional. Este método também economiza combustível e minimiza as complicações do mau tempo, pois o avião pode simplesmente sobrevoar os sistemas de tempestade. Embora a Northrop Grumman já está planejando usar o Stratolaunch para lançar foguetes Pegasus XL, outras empresas privadas, a NASA e as forças armadas norte-americanas expressaram interesse no projeto. Allen morreu no ano passado de complicações relacionadas a um linfoma não-Hodgkin. Mesmo assim, o projeto continuou em seu ritmo. “Nós finalmente conseguimos”, disse Jean Floyd, CEO da Stratolaunch Systems, a repórteres, segundo a CNN. "Foi um momento emocionante para ver esse pássaro levantar voo. […] Eu imaginava esse momento há anos, mas nunca imaginei que Paul não estaria ao meu lado." “Na maior parte do tempo, o avião voou como previsto”, disse à CNN o piloto de testes Evan Thomas, que anteriormente pilotava aeronaves F-16 para a Força Aérea dos EUA. "Foi fantástico em geral. Eu honestamente não poderia ter esperado mais em um primeiro voo, especialmente de um avião com essa complexidade e essa singularidade." Como a CNN nota, o Stratolaunch ainda precisará ser certificado pela Administração Federal de Aviação dos EUA, que exigirá muitos mais voos de teste, antes que ele possa começar a lançar cargas úteis para fora do planeta. Ele também enfrenta a concorrência da Virgin Orbit, de Richard Branson, que usa uma aeronave Boeing 747-400 modificada e provavelmente enfrentará menos obstáculos regulatórios. The post Idealizado por cofundador da Microsoft, avião com maior envergadura de asas do mundo faz seu primeiro voo de teste appeared first on Gizmodo Brasil. |
Polícia norte-americana estaria usando dados de localização do Google para identificar suspeitos Posted: 14 Apr 2019 07:20 AM PDT As consultas policiais do enorme banco de dados de localização de dispositivos móveis do Google, chamado de Sensorvault, “aumentaram acentuadamente nos últimos seis meses”. A informação é do New York Times deste sábado (13) e cita fontes da própria empresa. Não está claro quantas vezes a polícia pede ao Google para produzir resultados do banco de dados. Esses resultados podem ser usados para filtrar quais dispositivos estavam em uma localização geográfica específica em um determinado período de tempo. O banco tem principalmente dados de telefones Android, mas também possui, em menor número, informações sobre aparelhos iOS. [foo_related_posts] A técnica pode ser usada para encontrar suspeitos em potencial. Críticos, porém, dizem que ela se assemelha a uma “expedição de pesca”, termo usado nos EUA para descrever uma investigação ampla sem objetivo definido. Isso poderia estar em desacordo com a Quarta Emenda da Constituição dos EUA, que restringe o escopo dos mandados e justificativas que as autoridades mostram como causa provável de buscas. Diz a matéria do Times:
No ano passado, a Suprema Corte dos EUA determinou que as autoridades devem obter um mandado de busca e demonstrar uma causa provável para obter registros de localização de terceiros como o Google. A empresa já tinha decidido que exigiria mandados para entregar os dados. Cada "mandado de geofence" — que varia de pequenos espaços a áreas maiores, cobrindo vários quarteirões, e em períodos de tempo igualmente variáveis – pode ter de dezenas a centenas de dispositivos pertencentes a muitas pessoas. Por isso, a empresa primeiro fornece registros sem anexar nomes ou outras informações de identificação para os investigadores. Quando as autoridades reduzem o número de suspeitos em potencial, identificando padrões de deslocamento que indicam envolvimento potencial em um crime ou possíveis testemunhas na área, eles podem solicitar mais dados de localização ou que o Google revele "o nome, endereço de e-mail e outros dados associados ao dispositivo", segundo o NYT. No entanto, algumas jurisdições podem exigir um segundo mandado para que as informações de identificação sejam entregues. Como o Times nota, o Histórico de Localização não está ativado por padrão e precisa ser ativado para se usar determinados serviços. Sua finalidade principal para o Google, no entanto, é a direcionar propaganda e fornecer informações para serviços do buscador, como determinar se uma loja está mais cheia ou mais vazia. Mesmo se o Histórico de Localização estiver desativado, outros aplicativos do Google coletam alguns dados como parte das configurações da Atividade na Web e de Apps (embora esses dados sejam mantidos em um banco de dados do Google separado). Embora os mandados tenham resolvido crimes, eles também podem resultar em autoridades que prendam a pessoa errada. Por exemplo, o Times mostra o caso de Jorge Molina, um morador do estado do Phoenix. Ele foi preso depois que a polícia disse que seu telefone tinha sido detectado nas proximidades de um tiroteio e que seu veículo lembrava um que foi visto na cena do crime em imagens de uma câmera de segurança. Molina passou uma semana na prisão até seus amigos produzirem textos e recibos do Uber, que deram a ele um álibi. A polícia, então, prendeu Marcos Gaeta, “ex-namorado de sua mãe, que às vezes usava o carro de Molina” e tinha um “longo histórico criminal”. O defensor público de Molina, Jack Litwak, disse ao jornal que acreditava ser possível que os registros do Google fossem enganosos devido a vários logins:
De acordo com o Times, o Google é a principal empresa que parece estar cumprindo os mandados. A Apple diz que não pode fornecer essas informações às autoridades. No entanto, no ano passado, surgiu a história de que outra empresa, chamada Securus, obtinha dados de localização diretamente de empresas de telecomunicações e as vendia para a polícia sem um mandado. Um próspero mercado ilegal de dados de localização ainda existe, apesar de as operadoras terem prometido parar de vendê-las a intermediários, que as desviam dos usos combinados em marketing e outros serviços. The post Polícia norte-americana estaria usando dados de localização do Google para identificar suspeitos appeared first on Gizmodo Brasil. |
You are subscribed to email updates from Gizmodo Brasil. To stop receiving these emails, you may unsubscribe now. | Email delivery powered by Google |
Google, 1600 Amphitheatre Parkway, Mountain View, CA 94043, United States |
Nenhum comentário:
Postar um comentário