GitHub Copilot과 같은 AI 코딩 보조 도구들을 사용하면 개발자의 생산성 향상에 많은 도움이 됩니다. 저도 GitHub Copilot을 개인적으로 유료 결제해서 사용 중이며, 회사에서도 개발 비용으로 지원해 주고 있습니다. 하지만, GitHub Copilot의 도움을 받으려면 작성 중인 코드가 GitHub 서버로 전송되므로, 보안 정책이 엄격한 기업에서는 사용을 금지하고 있습니다. 게다가 매달 내는 GitHub Copilot 사용료도 조금 아깝기도 합니다.
그래서 사내 GPU 서버에 ollama와 Codestral이라는 Code LLM 모델을 설치 및 설정해서 사용해보았습니다.
시스템 구성도
위와 같이 GPU 서버에 ollama와 Codestral 모델을 설치하여 API로 사내 개발자들이 모두 사용할 수 있도록 구성했습니다. Codestral은 파라메터 크기가 커서 로컬에서 실행 하기엔 메모리 사용량이 부담됩니다.
사용 시 느낀 단점은 GitHub Copilot 대비 문맥 파악이 좀 떨어지는 것 같았습니다. GitHub Copilot은 문맥에 맞게 코드를 생성해주는 반면, Codestral은 그런 부분에서 많이 부족해 보였습니다. 이러한 단점은 위와 같이 RAG와 Ollama 문맥 관리를 프로젝트별로 설정을 잘하면 개선할 수 있을 것입니다. 조만간 설치형 AI 코딩 보조 도구들도 나오겠네요.