[디지털경제뉴스 박시현 기자] “생성형 AI는 기술 구현에 미치는 영향 외에 소프트웨어 엔지니어링 리더의 관리 책임에 변화를 가져올 것이다. 여기에는 팀 관리, 인재 관리, 윤리 강령 등이 포함된다. 소프트웨어 엔지니어링 리더들이 이러한 변화를 인식하고 적응하지 못하면 관련 혁신 기술을 받아들인 리더들에 의해 대체될 위험이 있다.”
가트너는 이러한 내용을 담은 ‘소프트웨어 엔지니어링 리더의 책임을 변화시키는 생성형 AI’ 보고서를 발표했다.
보고서에 따르면 소프트웨어 엔지니어링 리더는 생성형 AI를 시범적으로 운영하면서, 이를 활용해 팀을 강화함으로써 얻을 수 있는 비즈니스 가치를 입증해야 한다. 이는 팀에 대한 지속적인 투자를 유지할 설득력 있는 비즈니스 사례가 된다.
리더는 팀과의 투명성을 유지해야 하며, AI 기술이 어떻게 직원을 대체할 것인지 보다는 어떻게 개발자의 생산성을 향상시킬 수 있는지에 초점을 맞춰 소통해야 한다.
가트너는 “생성형 AI가 가까운 미래에 개발자를 대체하지는 못할 것”이라며, “소프트웨어 엔지니어링의 특정 측면을 자동화할 수는 있지만, 창의성, 비판적 사고, 문제 해결 능력과 같이 인간이 가진 특징은 복제할 수 없다”고 했다. 또 “리더는 생성형 AI가 효율성 향상을 배가할 요인이라는 것을 입증함으로써 팀의 가치를 강화해야 한다”고 강조했다.
생성형 AI는 직무 분석, 면접 내용 요약 등 채용 및 인사 업무의 속도를 높일 수 있다. 예를 들어, 소프트웨어 엔지니어링 리더는 플랫폼 엔지니어링에 필요한 기술이나 경험 관련 키워드 및 핵심 문구를 요청하는 프롬프트를 입력할 수 있다.
리더는 또한 생성형 AI에 투자함으로써 생기는 더 많은 시간을 사람 중심적 역할에 집중할 수 있다. 생성형 AI 기술에 대한 투자는 리더들이 지속적으로 엔지니어의 역량을 강화하고 적응력 높은 인력을 양성할 수 있도록 돕는다.
가트너는 “역량 관리 및 개발은 채용과 더불어 핵심적인 리더의 역할”이라며, “AI 기반 역량 관리는 인재와 업무 프로세스를 지원하는 동적 역량 접근 방식으로서, 소프트웨어 엔지니어링 리더가 결합이 가능한 역량들을 파악해 새로운 직무를 만들어내거나 중복되는 직무를 제거할 수 있도록 하는 등 역할을 재고하는데 도움이 될 것”이라고 밝혔다.
가트너는 이어 "기초적인 AI 모델을 사용하면 환각, 거짓이지만 사실처럼 보이는 콘텐츠, 편견과 같은 위험이 발생할 수 있다"며, “소프트웨어 엔지니어링 리더는 해당 기술을 사용할 때 더욱 신중해야 한다”고 강조했다.
소프트웨어 엔지니어링 리더들은 AI 윤리 위원회와 협력하거나 직접 설립함으로써 설계 및 개발에 활용되는 생성형 AI의 책임감 있는 사용을 위한 정책 가이드라인을 구축해야 한다. 리더들은 자체적으로 개발했거나 공급업체로부터 구매한 모든 생성형 AI 제품의 윤리적 위험을 파악하고 완화하는 데 중요한 역할을 한다.
가트너는 "인간의 판단 및 비판적 사고가 필요한 작업을 대체하기 위해 생성형 AI를 사용하는 것은 삼가야 한다"며 "생성형 AI가 일상적인 활동에서 최대 가치를 창출할 수 있는 사용 사례를 지속적으로 평가하는 것이 중요하다”고 권고했다.