Genetec avalia implicações dos modelos de Linguagem de Grande Escala de Inteligência Artificial na segurança física

IA oferece grande potencial para automação e economia de custos. Mas é segura?

Os Modelos de Linguagem de Grande Escala (LLMs) estão transformando rapidamente o panorama global. Em poucos meses desde o lançamento do chatbot de inteligência artificial (IA) da OpenAI, o ChatGPT, mais de 100 milhões de usuários aderiram a essa plataforma, consolidando-a como uma das aplicações de consumo de crescimento mais acelerado na história recente. A versatilidade dos LLMs, capacitando desde respostas a perguntas e explicação de temas complexos até a redação de roteiros e códigos, tem gerado um intenso entusiasmo e debate global sobre o alcance e as implicações dessa tecnologia de IA

“Embora os LLMs tenham se tornado um tema quente recentemente, vale a pena notar que a tecnologia já existe há muito tempo. Embora com os avanços em andamento, os LLMs e outras ferramentas de IA estão criando agora oportunidades para gerar maior automação em várias tarefas. Ter uma compreensão fundamentada das limitações da IA e dos riscos potenciais é essencial”, acredita Ueric Melo, especialista em Cibersegurança e Privacidade da Genetec para América Latina e Caribe.

Ao ponderar os riscos dos LLMs, é preciso considerar que são treinados para satisfazer o usuário como prioridade e usam um método de treinamento de IA não supervisionado para abastecer um grande conjunto de dados da Internet. Significa que as respostas nem sempre são precisas, verdadeiras e não tendenciosas, o que sempre é perigoso em um contexto de segurança. Isto porque pode dar origem a ‘alucinações da IA’, quando o modelo gera respostas que parecem plausíveis, mas não se baseiam em fatos ou dados do mundo real. O uso de LLMs também apresenta sérios riscos em termos de privacidade e confidencialidade, pois seu aprendizado inclui informações confidenciais sobre indivíduos e organizações, sendo que cada input de texto é utilizado para treinar a versão subsequente.

Na segurança física, IA já é usada de maneiras interessantes: para acelerar as investigações procurando por pessoas e veículos com características definidas pelo operador em gravações de vídeo; automatizar a contagem de pessoas; detecção de placas de veículos; melhorar a cibersegurança.

À medida que os algoritmos de IA processam grandes volumes de dados com rapidez e precisão, a tecnologia se torna uma ferramenta cada vez mais crucial para soluções de segurança física. Porém, sua capacidade de utilizar dados pessoais também se amplia, o que pode afetar a privacidade. Por isto, IA pode inadvertidamente gerar resultados enviesados com base em diferentes pontos de vista, impactando decisões que, em última análise, podem resultar em discriminação.

Ou seja, apesar do potencial revolucionário de transformação, sua implementação exige responsabilidade. É por isso que a Genetec™ estabeleceu três pilares que norteiam seu uso: privacidade e governança de dados – a utilização respeita os regulamentos relevantes de proteção de dados; transparência e imparcialidade e decisões orientadas por humanos – seus modelos IA não tomam decisões críticas por conta própria, sempre um ser humano deve estar sempre informado e ter a palavra final.

Mais informações em https://www.genetec.com/br

*Fonte: Genetec