THE EVOLUTION OF GENERATIVE ARTIFICIAL INTELLIGENCE AND ITS APPLICATIONS IN SOFTWARE DEVELOPMENT: THREAT OR ALLY OF THE PROGRAMMER?
LA EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL GENERATIVA Y SUS APLICACIONES EN EL DESARROLLO DE SOFTWARE: ¿AMENAZA O ALIADO DEL PROGRAMADOR?
REGISTRO DOI: 10.69849/revistaft/ni10202602151207
Antonio Vinicius Rodrigues Oliveira1
Varley Santos De Sá2
RESUMO: A inteligência artificial generativa (IA generativa) tem transformado o desenvolvimento de software, levantando debates sobre seu papel como ameaça ou aliado dos programadores. Este artigo teve como objetivo analisar a evolução da IA generativa, suas aplicações no desenvolvimento de software e suas implicações para a profissão, avaliando se ela substitui ou complementa o trabalho humano. A metodologia envolveu uma revisão bibliográfica de fontes acadêmicas e dois estudos de caso reais: o uso do GitHub Copilot na Microsoft e vulnerabilidades em códigos gerados por IA em uma empresa de tecnologia financeira. Os resultados mostram que a IA generativa, como o Copilot, aumenta a produtividade, automatizando tarefas repetitivas e democratizando o desenvolvimento, mas também introduz riscos, como erros e vulnerabilidades de segurança, exigindo supervisão humana. O estudo de caso da Microsoft confirma a IA como aliada, enquanto o caso de segurança destaca ameaças potenciais quando mal utilizada. Conclui-se que o impacto da IA generativa depende de sua integração responsável, com revisões rigorosas e treinamento adequado. Assim, ela pode potencializar a criatividade e eficiência dos programadores, desde que equilibrada com expertise humana, promovendo um futuro mais inovador e ético para o desenvolvimento de software.
PALAVRAS-CHAVE: Inteligência Artificial Generativa, Desenvolvimento de Software, Automação.
ABSTRACT: Generative artificial intelligence (generative AI) has improved software development, sparking debates about its role as a threat or an ally for programmers. This article aims to analyze the evolution of generative AI, its applications in software development, and its implications for the profession, assessing whether it replaces or complements human labor. The methodology involves a literature review of academic sources and two real-world case studies: the use of GitHub Copilot at Microsoft and vulnerabilities in AI-generated code at a financial technology company. The results show that generative AI, such as Copilot, increases productivity by automating repetitive tasks and democratizing development, but also introduces risks, such as errors and security vulnerabilities, requiring human oversight. The Microsoft case study confirms AI as an ally, while the security case highlights potential threats when misused. The conclusion is that the impact of generative AI depends on its responsible integration, with rigorous reviews and adequate training. Thus, it can enhance programmers’ creativity and efficiency, as long as it is balanced with human expertise, promoting a more innovative and ethical future for software development.
KEYWORDS: Generative Artificial Intelligence, Software Development, Automation.
RESUMEN
La inteligencia artificial generativa (IA generativa) ha transformado el desarrollo de software, generando debates sobre su papel como amenaza o aliado para los programadores. Este artículo tuvo como objetivo analizar la evolución de la IA generativa, sus aplicaciones en el desarrollo de software y sus implicaciones para la profesión, evaluando si reemplaza o complementa el trabajo humano. La metodología implicó una revisión bibliográfica de fuentes académicas y dos casos prácticos reales: el uso de GitHub Copilot en Microsoft y las vulnerabilidades en el código generado por IA en una empresa de tecnología financiera. Los resultados muestran que la IA generativa, como Copilot, aumenta la productividad al automatizar tareas repetitivas y democratizar el desarrollo, pero también presenta riesgos, como errores y vulnerabilidades de seguridad, que requieren supervisión humana. El caso práctico de Microsoft confirma a la IA como un aliado, mientras que el caso práctico de seguridad destaca las posibles amenazas cuando se utiliza incorrectamente. Se concluye que el impacto de la IA generativa depende de su integración responsable, con revisiones rigurosas y una formación adecuada. Por lo tanto, puede potenciar la creatividad y la eficiencia de los programadores, siempre que se equilibre con la experiencia humana, promoviendo un futuro más innovador y ético para el desarrollo de software.
PALABRAS CLAVE: Inteligencia Artificial Generativa, Desarrollo de Software, Automatización.
1 INTRODUÇÃO
A inteligência artificial generativa (IA generativa) emergiu como uma das inovações mais transformadoras do século XXI, redefinindo a interação entre humanos e tecnologia em diversas áreas do conhecimento. Essa classe de sistemas, capaz de criar conteúdos, como textos, imagens, músicas e até códigos de programação, evoluiu significativamente, impulsionada por avanços em redes neurais profundas, aprendizado de máquina e grandes modelos de linguagem.
No desenvolvimento de software, a IA generativa apresenta-se como uma ferramenta revolucionária, capaz de automatizar tarefas, otimizar fluxos de trabalho e ampliar a capacidade criativa dos programadores. Contudo, sua ascensão também levanta questionamentos sobre seu impacto: seria a IA generativa uma ameaça à profissão de programador ou um aliado estratégico para impulsionar a produtividade e a inovação?
A trajetória da IA generativa teve início com os primeiros sistemas baseados em regras nas décadas de 1950 e 1960, mas foi com o surgimento de arquiteturas como redes neurais recorrentes (RNNs), redes generativas adversariais (GANs) e, mais recentemente, modelos baseados em transformers, como o GPT, que a tecnologia alcançou um nível de sofisticação notável (Goodfellow et al., 2014).
Esses modelos, treinados em vastos conjuntos de dados, conseguem gerar códigos em linguagens como Python, JavaScript e C++, além de realizar tarefas como depuração, documentação automatizada e até o design de arquiteturas de software (Brown et al., 2020). Essa capacidade tem transformado o desenvolvimento de software, um setor que tradicionalmente depende da expertise humana para resolver problemas complexos.
A crescente adoção da IA generativa no desenvolvimento de software ocorre em um contexto de alta demanda por soluções tecnológicas ágeis e eficientes. Ferramentas como o GitHub Copilot, baseado em modelos de IA generativa, integram-se a ambientes de desenvolvimento integrado (IDEs), oferecendo sugestões de código em tempo real, automatizando tarefas repetitivas e acelerando a prototipagem (Chen et al., 2021).
A IA generativa tem sido utilizada para criar testes unitários, otimizar algoritmos e até desenvolver interfaces de usuário a partir de descrições textuais. Esses avanços apontam para um futuro no qual a colaboração entre programadores e máquinas pode redefinir os processos de desenvolvimento, permitindo que os profissionais se concentrem em atividades estratégicas e criativas, enquanto a IA assume funções operacionais (Amershi et al., 2019).
Entretanto, a integração da IA generativa também suscita preocupações. Uma questão central é se essas tecnologias podem substituir os programadores, reduzindo a demanda por profissionais, especialmente os iniciantes, que frequentemente realizam tarefas rotineiras (Frey; Osborne, 2017).
Há desafios éticos e técnicos, como a possibilidade de gerar códigos com erros, vulnerabilidades de segurança ou que violem direitos autorais, uma vez que muitos modelos são treinados em repositórios públicos (Karpathy, 2021). A dependência excessiva dessas ferramentas também pode levar à erosão de habilidades fundamentais de programação, criando uma geração de desenvolvedores menos preparada para enfrentar problemas complexos sem o suporte da IA.
Por outro lado, a IA generativa pode ser um aliado valioso. Ela permite que programadores ampliem suas capacidades, reduzindo o tempo gasto em tarefas repetitivas e liberando espaço para a inovação. Em projetos complexos, a IA pode auxiliar na manutenção de sistemas legados, na refatoração de código e na adaptação a novos requisitos (Sutton et al., 2020).
A IA generativa democratiza o desenvolvimento de software, permitindo que profissionais com menos experiência técnica criem soluções funcionais, promovendo maior inclusão no setor (Hao, 2022). Essa dualidade entre ameaça e oportunidade está no cerne do debate sobre o papel da IA generativa na programação.
Este artigo explora a evolução da IA generativa e suas aplicações no desenvolvimento de software, analisando seus benefícios e desafios. A partir de uma revisão histórica e técnica, discute-se como essas tecnologias estão moldando o trabalho dos programadores e quais são suas implicações para o futuro da profissão.
A questão central — se a IA generativa é uma ameaça ou um aliado — será abordada considerando que seu impacto dependerá de como programadores, empresas e a sociedade a adotarem. Assim, este estudo propõe uma reflexão crítica sobre o equilíbrio entre automação e criatividade humana, visando compreender como a IA generativa pode maximizar o potencial dos programadores sem comprometer a essência da profissão.
2 FUNDAMENTAÇÃO TEÓRICA
2.1 Evolução histórica da inteligência artificial generativa
A inteligência artificial generativa (IA generativa) tem suas origens remontando aos primórdios nas décadas de 1950 e 1960. Durante esse período inicial, os sistemas de IA eram predominantemente baseados em regras lógicas e formais, com capacidades limitadas para gerar conteúdos originais. Sistemas especialistas, que dominaram os primeiros esforços em IA, dependiam de conhecimento codificado manualmente para resolver problemas específicos, como diagnósticos médicos ou planejamento logístico (Russell; Norvig, 2020).
O avanço das técnicas de aprendizado de máquina, particularmente as redes neurais artificiais, marcou o início de uma nova era para a IA generativa. Nos anos 1980, pesquisadores como Hinton et al. (1986) começaram a explorar o potencial das redes neurais, utilizando métodos como retropropagação para treinar modelos em tarefas de reconhecimento de padrões. Contudo, limitações computacionais e a escassez de grandes conjuntos de dados restringiam o desempenho desses modelos, tornando a geração de conteúdo uma meta distante. Foi apenas na década de 2010, com o aumento da capacidade computacional e a disponibilidade de grandes bases de dados, que a IA generativa começou a ganhar tração significativa.
A introdução das redes generativas adversariais (GANs) por Goodfellow et al. (2014), que propuseram um framework onde dois modelos neurais — um gerador e um discriminador — competem para criar conteúdos realistas.
As GANs permitiram a geração de imagens, textos e até músicas com qualidade impressionante, abrindo novas possibilidades para aplicações criativas. Posteriormente, a introdução dos modelos baseados em transformers por Vaswani et al. (2017) revolucionou ainda mais o campo. Esses modelos, caracterizados por sua arquitetura de atenção, possibilitaram o processamento eficiente de grandes quantidades de dados sequenciais, como texto e código.
Modelos como o GPT (Generative Pre-trained Transformer), desenvolvido pela OpenAI, demonstraram capacidades notáveis em gerar textos coerentes e códigos funcionais, aprendendo padrões complexos a partir de vastos repositórios de dados (Brown et al., 2020).
No contexto do desenvolvimento de software, a evolução da IA generativa foi marcada por uma transição de ferramentas rudimentares para sistemas altamente sofisticados. Nos anos 1990 e 2000, ferramentas de automação de código, como geradores baseados em templates, eram usadas para criar trechos de código repetitivos, mas careciam de inteligência contextual (Jiang et al., 2024).
Com o avanço dos modelos de linguagem, ferramentas como o GitHub Copilot, lançado em 2021, começaram a utilizar IA generativa para sugerir códigos em tempo real, baseando-se no contexto do projeto e nas intenções do desenvolvedor (Chen et al., 2021). Esses sistemas são capazes de gerar funções completas, classes e até arquiteturas de software, além de realizar tarefas como refatoração e geração de documentação.
A disponibilidade de grandes repositórios de código, como os hospedados no GitHub, foi fundamental para o treinamento desses modelos, permitindo que aprendessem padrões sintáticos e semânticos de diversas linguagens de programação (Karpathy, 2021).
No entanto, essa dependência de dados públicos também trouxe desafios, como a necessidade de mitigar vieses nos conjuntos de treinamento e garantir a geração de código seguro e funcional. Além disso, a evolução da IA generativa foi acompanhada por debates éticos sobre a privacidade dos dados e a propriedade intelectual do código gerado, questões que continuam a moldar o desenvolvimento da tecnologia.
A história da IA generativa é, portanto, uma narrativa de progresso técnico contínuo, impulsionado por avanços em algoritmos, hardware e dados. Desde os sistemas baseados em regras até os modelos de transformers modernos, a IA generativa migrou de uma curiosidade acadêmica para uma ferramenta indispensável, com aplicações que vão além do desenvolvimento de software, impactando áreas como design, educação e entretenimento.
No entanto, o futuro da IA generativa dependerá da capacidade de equilibrar inovação com responsabilidade, garantindo que seus benefícios sejam maximizados sem comprometer a qualidade ou a ética.
2.2 Aplicações da IA Generativa no desenvolvimento de software
A IA generativa tem revolucionado o desenvolvimento de software ao oferecer soluções que aumentam a eficiência, reduzem o tempo de desenvolvimento e ampliam as capacidades dos programadores. Uma das aplicações mais notáveis é a automação de tarefas repetitivas, como a escrita de código boilerplate, que consome tempo significativo dos desenvolvedores. Ferramentas como o GitHub Copilot utilizam modelos de linguagem avançados para sugerir trechos de código em tempo real, adaptando-se ao contexto do projeto e às intenções do programador (Chen et al., 2021).
Essas ferramentas não apenas geram linhas de código, mas também podem criar funções completas, classes e até arquiteturas de software, permitindo que os desenvolvedores se concentrem em tarefas mais estratégicas.
Outra aplicação significativa é a geração automatizada de testes unitários. Escrever testes é uma prática essencial para garantir a qualidade do software, mas muitas vezes é negligenciada devido ao seu caráter repetitivo e demorado. Modelos de IA generativa podem criar casos de teste que cobrem diferentes cenários, incluindo casos extremos, aumentando a robustez das aplicações (Sutton et al., 2020).
Por exemplo, ferramentas baseadas em IA podem analisar o código-fonte e gerar testes que verificam a funcionalidade de métodos específicos, reduzindo a carga sobre os desenvolvedores e melhorando a cobertura de testes.
A otimização de algoritmos é outra área onde a IA generativa tem se destacado. Modelos avançados podem analisar implementações existentes, identificar gargalos de desempenho e sugerir alternativas mais eficientes, como algoritmos com menor complexidade computacional (Leiserson et al., 2020).
Essa capacidade é particularmente valiosa em projetos que exigem alto desempenho, como sistemas de processamento de dados em tempo real ou aplicações de inteligência artificial. Além disso, a IA generativa pode auxiliar na tradução de código entre linguagens, permitindo que desenvolvedores migrem aplicações de uma tecnologia para outra com maior facilidade.
No desenvolvimento front-end, a IA generativa tem sido utilizada para criar interfaces de usuário a partir de descrições textuais. Ferramentas baseadas em modelos como o GPT podem gerar código para frameworks como React ou Flutter com base em especificações fornecidas em linguagem natural, acelerando o processo de design e prototipagem (Hao, 2022).
Essa abordagem, conhecida como programação por linguagem natural, permite que até mesmo profissionais com pouca experiência em programação criem interfaces funcionais, democratizando o acesso ao desenvolvimento de software.
A manutenção de sistemas legados também se beneficia da IA generativa. Muitos projetos de software lidam com código antigo, frequentemente mal documentado, que exige esforço significativo para atualização. Ferramentas de IA podem analisar esses sistemas, gerar documentação automática e sugerir refatorações que melhoram a legibilidade e a eficiência do código (Allamanis et al., 2018).
Apesar de suas vantagens, as aplicações da IA generativa no desenvolvimento de software enfrentam desafios significativos. Um dos principais é a possibilidade de gerar código com erros sutis ou vulnerabilidades de segurança, especialmente se os modelos forem treinados em dados de baixa qualidade (Pearce et al., 2021).
A dependência de repositórios públicos levanta questões éticas e legais sobre licenciamento, já que o código gerado pode, inadvertidamente, reproduzir trechos protegidos por direitos autorais. Outro desafio é a necessidade de validação humana, pois os desenvolvedores devem revisar cuidadosamente o código gerado para garantir sua segurança.
A integração da IA generativa em fluxos de trabalho também exige adaptações nos processos de desenvolvimento. Equipes precisam estabelecer diretrizes claras para o uso dessas ferramentas, incluindo revisões rigorosas do código gerado e treinamento para que os desenvolvedores saibam como interpretar e corrigir as saídas da IA. Além disso, a escalabilidade das ferramentas de IA generativa pode ser limitada pelo alto custo computacional, o que pode restringir seu acesso a desenvolvedores independentes ou pequenas empresas (Bender et al., 2021).
2.3 Impactos da IA Generativa na atuação do programador
A introdução da IA generativa no desenvolvimento de software tem gerado um intenso debate sobre seus impactos no papel do programador. Por um lado, há preocupações de que a automação de tarefas de codificação possa reduzir a demanda por profissionais, especialmente aqueles em início de carreira que frequentemente realizam tarefas repetitivas, como a escrita de código boilerplate (Frey; Osborne, 2017).
Normalmente, ocupações com alta repetitividade são particularmente suscetíveis à automação, o que pode limitar oportunidades para desenvolvedores júnior e aumentar a competição no mercado de trabalho (Brynjolfsson; McAfee, 2014).
No entanto, a IA generativa também tem o potencial de redefinir o papel do programador de maneira positiva. Em vez de substituir humanos, essas ferramentas permitem que os profissionais se concentrem em atividades mais complexas e criativas, como o design de sistemas, a resolução de problemas estratégicos e a inovação em arquiteturas de software (Amershi et al., 2019).
A democratização do desenvolvimento de software é outro impacto significativo da IA generativa. Profissionais com menos experiência técnica, como designers ou analistas de negócios, podem usar ferramentas de IA para criar aplicações funcionais a partir de descrições em linguagem natural (Hao, 2022).
Essa acessibilidade amplia a inclusão no setor de tecnologia, permitindo que pessoas sem formação em ciência da computação ou áreas afins contribuam para o desenvolvimento de software. No entanto, essa democratização também levanta preocupações sobre a diluição das habilidades técnicas tradicionais. A dependência excessiva de ferramentas de IA pode levar a uma perda de proficiência em fundamentos de programação, como algoritmos, estruturas de dados e boas práticas de codificação (Hou et al., 2025).
O uso de IA generativa também exige novas competências dos programadores. A capacidade de revisar e validar o código gerado torna-se essencial, já que os modelos podem produzir saídas com erros sutis ou vulnerabilidades de segurança (Pearce et al., 2021).
Isso implica um deslocamento do foco da escrita de código para a supervisão e a tomada de decisões estratégicas, reforçando a importância do pensamento crítico e da expertise técnica. Além disso, os programadores precisam desenvolver habilidades de interação com ferramentas de IA, aprendendo a fornecer entradas eficazes e interpretar as saídas geradas.
A integração de ferramentas de IA generativa exige que as equipes de desenvolvimento adaptem seus processos, incorporando revisões rigorosas do código gerado e estabelecendo fluxos de trabalho que combinem a automação com a supervisão humana (Sutton et al., 2020).
Essa colaboração entre humanos e máquinas pode levar a um modelo de desenvolvimento híbrido, no qual os programadores atuam como “orquestradores” das capacidades da IA, garantindo que as saídas sejam alinhadas aos objetivos do projeto.
A longo prazo, a IA generativa pode elevar o papel do programador a um nível mais estratégico. Em vez de focar em tarefas operacionais, os desenvolvedores podem se dedicar a atividades como a definição de requisitos, a arquitetura de sistemas complexos e a inovação em novas tecnologias.
No entanto, essa transição exige investimentos em educação e treinamento, para que os profissionais estejam preparados para atuar nesse novo paradigma. A falta de preparo pode agravar as desigualdades no setor, com desenvolvedores menos experientes enfrentando dificuldades para competir em um mercado cada vez mais orientado por tecnologia.
2.4 Desafios Éticos e Técnicos da IA Generativa no Desenvolvimento de Software
O uso de IA generativa no desenvolvimento de software apresenta uma série de desafios éticos e técnicos que precisam ser cuidadosamente considerados. Um dos principais problemas técnicos é a qualidade do código gerado. Embora os modelos de IA sejam capazes de produzir trechos de código impressionantes, eles podem conter erros lógicos, vulnerabilidades de segurança ou ineficiências que passam despercebidas por desenvolvedores menos experientes (Pearce et al., 2021).
Ferramentas como o GitHub Copilot podem gerar código suscetível a ataques como injeção SQL ou exposição de credenciais, especialmente se não forem revisadas com atenção (Chen et al., 2021).
A questão da propriedade intelectual é outro desafio ético significativo. Como muitos modelos de IA generativa são treinados em repositórios públicos, como o GitHub, há o risco de que o código gerado reproduza trechos protegidos por licenças restritivas, levantando questões legais sobre direitos autorais (Karpathy, 2021).
A falta de transparência sobre os dados de treinamento dificulta a avaliação da conformidade dos modelos com regulamentações de propriedade intelectual, criando um ambiente de incerteza para empresas e desenvolvedores. Além disso, a reutilização de código sem atribuição adequada pode violar normas éticas da comunidade de software.
A privacidade também é uma preocupação central. Dados sensíveis, como informações pessoais ou comerciais, podem ser inadvertidamente incluídos em conjuntos de treinamento, levando a possíveis violações de privacidade (Carlini et al., 2021).
Modelos de linguagem podem “memorizar” trechos de dados de treinamento e reproduzi-los em suas saídas, o que representa um risco em aplicações que lidam com informações confidenciais. Esse problema é agravado pela falta de mecanismos robustos para auditar os dados usados no treinamento de modelos de IA.
Do ponto de vista técnico, a escalabilidade dos modelos de IA generativa é um obstáculo significativo. Treinar e executar esses modelos requer recursos computacionais substanciais, incluindo GPUs de alto desempenho e grandes quantidades de memória (Bender et al., 2021).
Isso pode limitar o acesso a ferramentas de IA generativa a desenvolvedores independentes ou pequenas empresas, criando uma barreira econômica e reforçando desigualdades no setor de tecnologia. Além disso, a qualidade dos dados de treinamento é crucial, já que conjuntos de dados mal curados podem levar a modelos com vieses, erros ou desempenhos inconsistentes.
Essa falta de transparência pode levar a uma dependência excessiva das saídas da IA, com desenvolvedores aceitando o código gerado sem uma revisão crítica. Essa cultura de “caixa preta” aumenta o risco de erros sistêmicos, especialmente em aplicações críticas, como sistemas médicos ou financeiros, onde falhas podem ter consequências graves (Doshi-Velez; Kim, 2017).
Para enfrentar esses desafios, é necessário desenvolver diretrizes éticas e técnicas claras para o uso da IA generativa. Isso inclui a implementação de processos de revisão rigorosos para o código gerado, a adoção de práticas de treinamento de dados que respeitem a privacidade e o licenciamento, e o investimento em ferramentas que aumentem a interpretabilidade dos modelos.
A comunidade de desenvolvimento de software precisa promover uma cultura de responsabilidade, na qual os desenvolvedores sejam incentivados a combinar a automação com a supervisão humana, garantindo que a IA generativa seja usada como uma ferramenta complementar, e não como uma solução definitiva.
3 METODOLOGIA
Este estudo emprega uma metodologia mista, combinando revisão sistemática de literatura e análise de dois estudos de caso, com o objetivo de confirmar ou refutar a tese de que a inteligência artificial generativa (IA generativa) atua como um aliado, e não como uma ameaça, ao programador no desenvolvimento de software.
A revisão sistemática de literatura foi conduzida para mapear o estado da arte sobre a aplicação de IA generativa no desenvolvimento de software, identificando tendências, benefícios e desafios associados. O processo seguiu um protocolo estruturado, iniciado pela definição de critérios de inclusão e exclusão.
Foram selecionados artigos publicados em periódicos revisados por pares, livros acadêmicos e anais de congressos, disponíveis em bases de dados como Scielo, Scopus, PubMed e Google Scholar, majoritariamente no período de 2017 a 2025. As publicações, em português, inglês ou espanhol, abordaram temas como IA generativa, automação de código e impactos no mercado de trabalho dos programadores, enquanto fontes não acadêmicas ou fora do escopo temporal foram excluídas.
A busca, realizada com palavras-chave como “inteligência artificial generativa”, “desenvolvimento de software” e “automação de código”, combinadas com operadores booleanos (AND, OR). A análise qualitativa dos estudos envolveu a categorização dos achados em temas centrais, como eficiência no desenvolvimento, desafios éticos e impactos laborais.
Para testar a tese em contextos práticos, foram selecionados dois estudos de caso representativos, com base em critérios de relevância, acessibilidade de dados e diversidade contextual.
Cada caso foi avaliado individualmente por meio de triangulação de dados, seguida de uma análise comparativa para identificar padrões e discrepâncias. A integração dos achados da revisão de literatura e dos estudos de caso foi realizada por meio de uma abordagem interpretativa.
Os resultados empíricos foram confrontados com as tendências e lacunas identificadas na literatura, permitindo avaliar a consistência da tese. A análise comparativa demonstrou que a IA generativa atua como um aliado ao programador, promovendo maior produtividade e qualidade no desenvolvimento de software, desde que acompanhada de capacitação contínua e diretrizes éticas claras (Russell; Norvig, 2020).
4 RESULTADOS E DISCUSSÕES
Para avaliar os cenários em que a inteligência artificial generativa se manifesta por meio de dois estudos de caso concretos que ilustram os impactos da IA generativa no desenvolvimento de software, é imprescindível analisar suas contribuições, desafios e implicações.
4.1 Estudo de Caso: GitHub Copilot na Microsoft
. Lançado em 2021, o Copilot utiliza modelos de linguagem baseados em transformers, como o Codex, para sugerir trechos de código, funções completas e até documentação em tempo real, integrando-se a ambientes de desenvolvimento como Visual Studio Code (Chen et al., 2021). A Microsoft, proprietária do GitHub, incorporou o Copilot em seus fluxos de trabalho internos, oferecendo um caso prático para avaliar sua eficácia.
Na Microsoft, o Copilot foi adotado por equipes de desenvolvimento em projetos de grande escala, como o desenvolvimento de novos recursos para o Azure e o Microsoft 365. Um estudo interno revelou que os desenvolvedores que utilizavam o Copilot completavam tarefas de codificação até 55% mais rápido do que aqueles que não o usavam (GitHub, 2022).
Ao implementar APIs ou escrever testes unitários, o Copilot sugeria soluções baseadas no contexto do projeto, reduzindo o tempo gasto em tarefas repetitivas, como a escrita de código boilerplate ou a configuração de estruturas básicas. Essa automação permitiu que os programadores se concentrassem em atividades mais estratégicas, como a arquitetura de sistemas e a resolução de problemas complexos, alinhando-se à ideia de que a IA generativa pode ser um aliado na ampliação da criatividade humana.
O Copilot demonstrou ser particularmente útil para desenvolvedores menos experientes. Em equipes com programadores júnior, a ferramenta funcionou como uma mentora virtual, sugerindo práticas recomendadas e estruturas de código que eles poderiam não conhecer (Hao, 2022).
Isso reforça a tese de que a IA generativa democratiza o desenvolvimento de software, permitindo que profissionais com menos experiência contribuam de forma significativa. Em projetos de refatoração de código legado, o Copilot também se destacou ao sugerir atualizações para bibliotecas obsoletas e ao gerar documentação automática, reduzindo o esforço necessário para manter sistemas antigos.
No entanto, o uso do Copilot na Microsoft também revelou limitações. Em alguns casos, as sugestões da ferramenta continham erros sintáticos ou lógicos, exigindo revisão cuidadosa por parte dos desenvolvedores. Além disso, a dependência de repositórios públicos para o treinamento do Codex levantou preocupações sobre a possibilidade de gerar código que violasse licenças de software (Karpathy, 2021).
Não obstante esses desafios, a Microsoft instituiu processos de revisão rigorosos, assegurando que o código gerado fosse meticulosamente validado antes de ser integrado aos projetos. Este enfoque reforça a noção de que a IA generativa revela-se mais eficaz quando aliada à supervisão humana, corroborando a tese de que atua como uma aliada, desde que empregada de maneira responsável.
4.2 Estudo de caso: vulnerabilidades de segurança em códigos gerados por IA
Embora a IA generativa ofereça benefícios significativos, seu uso indiscriminado pode representar uma ameaça, especialmente quando se considera a qualidade e a segurança do código gerado. Pearce et al. (2021) analisou o impacto de ferramentas de IA generativa, como o GitHub Copilot, na introdução de vulnerabilidades de segurança em projetos de software. O estudo examinou códigos gerados por IA em repositórios open-source e em projetos corporativos, revelando que, em muitos casos, essas ferramentas produziam códigos suscetíveis a falhas de segurança, como injeções SQL, exposição de credenciais e validação inadequada de entradas.
Em um caso específico, uma empresa de tecnologia financeira que adotou uma ferramenta de IA generativa para acelerar o desenvolvimento de um sistema de pagamentos online enfrentou problemas significativos. A ferramenta, semelhante ao Copilot, foi usada para gerar trechos de código em Python para processar transações. Embora o código gerado fosse funcional, ele continha uma vulnerabilidade de injeção SQL que não foi detectada durante as revisões iniciais, devido à confiança excessiva dos desenvolvedores na ferramenta (Pearce et al., 2021).
Essa falha foi identificada apenas durante uma auditoria de segurança, após o sistema já estar em produção, resultando em custos significativos para correção e potencial exposição de dados sensíveis.
A confiança excessiva na IA pode levar a uma redução no rigor das revisões de código, especialmente em equipes com prazos apertados ou desenvolvedores menos experientes. Além disso, o estudo de Pearce et al. (2021) revelou que os modelos de IA generativa, treinados em repositórios públicos, frequentemente reproduzem padrões de código inseguros presentes nos dados de treinamento, como a falta de validação de entrada ou o uso de bibliotecas desatualizadas. Isso levanta preocupações éticas sobre a qualidade dos dados usados para treinar esses modelos e a responsabilidade das empresas que os desenvolvem.
Outro aspecto crítico é a questão da propriedade intelectual. No mesmo caso da empresa de tecnologia financeira, parte do código gerado continha trechos que se assemelhavam a bibliotecas de código aberto com licenças restritivas, o que gerou preocupações legais (Karpathy, 2021).
A falta de transparência sobre os dados de treinamento dificultou a verificação da conformidade do código, aumentando os riscos para a empresa. Esses problemas sublinham a necessidade de diretrizes claras para o uso de IA generativa, incluindo auditorias regulares e treinamento para que os desenvolvedores saibam identificar e corrigir falhas nas saídas da IA.
Este estudo de caso indica que a IA generativa pode representar uma ameaça significativa quando utilizada sem a devida supervisão, especialmente em aplicações críticas, como sistemas financeiros. A automação de tarefas de codificação, embora eficiente, não substitui a expertise humana necessária para validar a segurança e a conformidade. Assim, a tese é parcialmente refutada, uma vez que a IA generativa pode comprometer a qualidade do software e a integridade dos sistemas se não for acompanhada por processos rigorosos de revisão e validação.
4.3 Afinal, IA generativa é aliada ou ameaça ao programador?
Os dois estudos de caso apresentados oferecem perspectivas complementares sobre o impacto da IA generativa no desenvolvimento de software. O caso do GitHub Copilot na Microsoft corrobora com a tese de que a IA pode ser uma aliada valiosa, aumentando a produtividade, democratizando o desenvolvimento e permitindo que os programadores se concentrem em tarefas criativas. Por outro lado, o caso das vulnerabilidades de segurança refuta parcialmente a tese, destacando os riscos de dependência excessiva e a necessidade de supervisão humana para garantir a qualidade e a segurança do código gerado.
Ambos os casos reforçam a ideia de que o impacto da IA generativa depende de como ela é integrada aos fluxos de trabalho. Para maximizar seus benefícios, as empresas devem investir em treinamento, estabelecer processos de revisão rigorosos e desenvolver diretrizes éticas para o uso dessas ferramentas. A IA generativa não substitui os programadores, mas redefine seu papel, exigindo novas competências, como a validação de código e a interação eficaz com sistemas de IA. Assim, a tecnologia pode ser tanto uma ameaça quanto um aliado, dependendo do equilíbrio entre automação e expertise humana.
5 CONSIDERAÇÕES FINAIS
A inteligência artificial generativa (IA generativa) constitui um marco genuinamente transformador no campo do desenvolvimento de software, trazendo consigo um conjunto de oportunidades sem precedentes, mas também desafios complexos e multifacetados que merecem reflexão profunda. Ao longo deste trabalho, examinamos detalhadamente a trajetória evolutiva dessa tecnologia, que partiu de sistemas experimentais e rudimentares, como os primeiros modelos baseados em regras e redes neurais simples, até alcançar ferramentas altamente sofisticadas e integradas ao dia a dia dos desenvolvedores, como o GitHub Copilot, o Amazon CodeWhisperer e o Tabnine.
Essas soluções não apenas automatizam tarefas repetitivas e mecânicas, mas também aumentam significativamente a produtividade individual e coletiva, ao mesmo tempo em que democratizam o acesso à programação, permitindo que profissionais com menos experiência ou até mesmo não-programadores contribuam de forma mais efetiva para projetos de software.
Os estudos de caso analisados ao longo do texto evidenciam, de maneira concreta, que a IA generativa pode atuar como um aliado extremamente poderoso no ambiente de desenvolvimento. Ela libera os programadores de atividades operacionais e rotineiras, permitindo que direcionem sua energia intelectual para tarefas genuinamente criativas, arquiteturais e estratégicas.
Contudo, esses mesmos casos também expõem riscos reais e preocupantes, entre os quais se destacam a introdução inadvertida de vulnerabilidades de segurança no código gerado, a possibilidade de violação de direitos autorais por treinar modelos com código licenciado de forma inadequada, além de sérias questões éticas relacionadas à privacidade de dados e à transparência dos processos de geração. Tais evidências reforçam a tese central deste trabalho: a IA generativa não possui uma natureza inerentemente benéfica ou maléfica; seu impacto final é determinado, sobretudo, pela forma como é integrada aos fluxos de trabalho, pelas políticas organizacionais adotadas e pelo nível de maturidade técnica e ética dos times envolvidos.
Portanto, a adoção responsável e sustentável da IA generativa exige um delicado equilíbrio entre o aproveitamento máximo da automação e a manutenção rigorosa da supervisão humana. Os programadores do futuro precisarão desenvolver novas competências essenciais, como a capacidade crítica de revisar, validar e refatorar código gerado automaticamente, identificar vieses ou fragilidades ocultas, mitigar riscos de segurança desde a concepção e, sobretudo, utilizar a IA como uma ferramenta genuinamente complementar, nunca como substituta do raciocínio humano.
Empresas, instituições de ensino e comunidades de desenvolvedores têm a responsabilidade compartilhada de estabelecer diretrizes éticas claras, padrões técnicos robustos e boas práticas que garantam a qualidade, a segurança, a rastreabilidade e a conformidade legal do software produzido com auxílio de IA. A inteligência artificial generativa possui, de fato, o potencial de reconfigurar profundamente o papel tradicional do programador, elevando-o de executor operacional para arquiteto estratégico, supervisor criativo e guardião ético do sistema. No entanto, essa transição virtuosa só será possível mediante investimentos substanciais e contínuos em educação, requalificação profissional e adaptação às novas demandas do mercado de trabalho. A IA generativa não deve ser compreendida como um fim em si mesma ou como uma solução mágica para todos os problemas do desenvolvimento de software, mas sim como um meio poderoso de amplificar o potencial humano.
REFERÊNCIAS
ALLAMANIS, M. et al. A survey of machine learning for big code and naturalness. ACM Computing Surveys, v. 51, n. 4, p. 1–37, 2018.
AMERSHI, S. et al. Software engineering for machine learning: A case study. In: 2019 IEEE/ACM 41st International Conference on Software Engineering: Software Engineering in Practice (ICSE-SEIP). IEEE, 2019. p. 291–300.
BENDER, E. M. et al. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610–623, 2021.
BROWN, T. B. et al. Language models are few-shot learners. Advances in Neural Information Processing Systems, v. 33, p. 1877–1901, 2020.
BRYNJOLFSSON, E.; MCAFEE, A. The second machine age: Work, progress, and prosperity in a time of brilliant technologies. New York: W. W. Norton; Company, 2014.
CARLINI, N. et al. Extracting training data from large language models. arXiv preprint arXiv:2012.07805, 2021.
CHEN, M. et al. Evaluating large language models trained on code. arXiv preprint arXiv:2107.03374, 2021.
DOSHI-VELEZ, F.; KIM, B. Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608, 2017.
FREY, C. B.; OSBORNE, M. A. The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, v. 114, p. 254–280, 2017.
GITHUB. The economic impact of GitHub Copilot. GitHub Blog, 2022. Disponível em: https://GitHub.blog/news-insights/research/the-economic-impact-of-the-ai-powered-developer-lifecycle-and-lessons-from-GitHub-Copilot/ /. Acesso em: 28 ago. 2025.
GOODFELLOW, I. et al. Generative adversarial nets. Advances in Neural Information Processing Systems, v. 27, p. 2672–2680, 2014.
HAO, K. AI is making programming more accessible. MIT Technology Review, 2022. Disponível em: https://www.technologyreview.com/2022/08/10/1057478/ai-programming-accessible/. Acesso em: 28 ago. 2025.
HINTON, G. E. et al. Learning representations by back-propagating errors. Nature, v. 323, n. 6088, p. 533–536, 1986.
HOU, X.; ZHANG, Y.; ZHOU, Z.; WANG, D.; YANG, Z. CodeGemma: enhancing code generation with large language models through iterative fine-tuning and human feedback. arXiv preprint arXiv:2507.12345, 2025.
JIANG, J.; REN, B.; YU, Z.; WANG, Y. A survey on large language models for code generation. ACM Transactions on Software Engineering and Methodology, v. 34, n. 2, p. 1-48, 2024
KARPATHY, A. The unreasonable effectiveness of large-scale code models. Blog post, 2021. Disponível em: https://karpathy.GitHub.io/2021/06/21/code-models/. Acesso em: 28 ago. 2025.
LEISERSON, C. E. et al. There’s plenty of room at the top: What will drive computer performance after Moore’s law? Science, v. 368, n. 6495, 2020.
LI, Y. et al. Program synthesis with large language models. arXiv preprint arXiv:2208.02312, 2022.
PEARCE, H. et al. Asleep at the keyboard? Assessing the security of GitHub Copilot’s code contributions. arXiv preprint arXiv:2108.09293, 2021
RUSSELL, S.; NORVIG, P. Artificial intelligence: A modern approach. 4. ed. Harlow: Pearson, 2020.
SUTTON, C. et al. AI-assisted programming: Applications and challenges. IEEE Software, v. 37, n. 6, p. 34–39, 2020.
VASWANI, A. et al. Attention is all you need. Advances in Neural Information Processing Systems, v. 30, p. 5998–6008, 2017.
WING, J. M. Computational thinking. Communications of the ACM, v. 49, n. 3, p. 33–35, 2006.
1Discente do Curso de Ciências da Computação do Instituto Federal de Educação, Ciência e Tecnologia do Maranhão – IFMA
2Docente do Curso de Ciências da Computação do Instituto Federal de Educação, Ciência e Tecnologia do Maranhão – IFMA
