Anthropic는 기계 학습으로 생성된 코드에서 오류를 찾을 수 있는 인공지능을 발표했습니다

Anthropic는 기계 학습으로 생성된 코드에서 오류를 찾을 수 있는 인공지능을 발표했습니다

10 hardware

Anthropic의 새로운 Code Review 도구는 코드 오류를 더 빠르게 수정하는 데 도움이 됩니다

프로그램 코드를 자동화하면 불가피하게 버그가 발생합니다. 인공지능은 단순히 버그를 생성할 뿐만 아니라 찾아내고 해결하는 능력도 갖추고 있습니다. 그래서 Anthropic은 Claude Code 플랫폼에서 사용할 수 있는 새로운 코드 검증 서비스인 Code Review를 발표했습니다.

Claude Code란 무엇인가요?
Claude Code는 프로그램 코드를 작성하는 AI 에이전트입니다. 현재 전 세계 수천 명의 개발자가 활발히 사용하고 있습니다. 일반적으로 제품 출시 전에 많은 수정과 버그 수정을 해야 합니다.

Code Review는 이 과정을 가속화하기 위해 고안되었습니다: 코드 검증은 자동으로 또는 최소한의 인간 개입으로 수행됩니다.

도구 작동 방식
1. GitHub와 통합
Code Review는 저장소에 연결되어 제안된 변경 사항을 분석하고 주석을 생성합니다.

2. 다중 에이전트
여러 AI 에이전트가 동시에 작업하며, 각기 다른 기준(논리, 보안, 스타일)으로 코드를 검토합니다.

3. 최종 요약
한 에이전트가 모든 지적 사항을 정리하고 중복을 제거하며 가장 중요한 부분을 강조합니다.

4. 문제 색상 표시
* 빨간색 – 즉시 수정이 필요한 치명적인 오류;
* 노란색 – 주의할 만한 잠재적 문제;
* 보라색 – 이전에 생성된 코드에서 발생한 오류.

5. 사이버보안
도구는 초기 보안 감사를 수행하고 사용자가 추가 검사를 설정하도록 허용합니다.

비용
Anthropic은 "사용량 기반 요금" 모델을 적용합니다. 한 코드 조각의 분석 비용은 $15~$25입니다. 프로젝트가 AI를 적극적으로 활용하면 상당한 지출이 될 수 있습니다.

왜 중요한가요?
Anthropic 관계자에 따르면, 코드를 빠르게 생성해도 품질이 떨어져서는 안 됩니다. 따라서 자동 오류 검증 도구는 소프트웨어 산업에서 점점 더 필요하게 되고 있습니다. Code Review는 Claude for Teams 및 Claude for Enterprise에서 실험적 솔루션으로 이미 제공되고 있습니다

댓글 (0)

의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.

아직 댓글이 없습니다. 댓글을 남기고 의견을 공유해 주세요!

댓글을 남기려면 로그인해 주세요.

댓글을 남기려면 로그인