cline
Introduction to Cline
Visual Studio Code Extension
- Autonomous coding agent right in your IDE, capable of creating/editing files, running commands, using the browser, and more with your permission every step of the way.
Cline 소개
Visual Studio Code 확장 프로그램
- IDE 내에서 작동하는 자율 코딩 에이전트로, 사용자의 허가를 받아 파일 생성/편집, 명령 실행, 브라우저 사용 등 다양한 작업을 수행할 수 있습니다.
Cline is a powerful tool for managing your codebase. The Visual Studio Code extension makes it easy to manage your codebase.
Cline은 코드베이스 관리를 위한 강력한 도구입니다. Visual Studio Code 확장 프로그램을 통해 코드베이스를 쉽게 관리할 수 있습니다.
Corsus and Trea AI are also Visual Studio-based IDEs, so they can be installed.
Corsus와 Trea AI도 Visual Studio 기반 IDE이므로 설치할 수 있습니다.
Recommended usage model
권장 사용 모델
gemini model
gemini-2.0-flash-001 Maximum output: 8,192 tokens
- Free for up to 15 requests per minute. After that, you will be charged based on the prompt size. See pricing for details.
gemini 모델
gemini-2.0-flash-001 최대 출력: 8,192 토큰
- 분당 최대 15개 요청까지 무료입니다. 그 이후에는 프롬프트 크기에 따라 요금이 부과됩니다. 자세한 내용은 가격 정책을 참조하세요.
gemini-2.5-pro-exp-03-25 Maximum output: 65,536 tokens
- Free for up to 2 requests per minute. After that, you will be charged based on the prompt size. See pricing for details.
gemini-2.5-pro-exp-03-25 최대 출력: 65,536 토큰
- 분당 최대 2개 요청까지 무료입니다. 그 이후에는 프롬프트 크기에 따라 요금이 부과됩니다. 자세한 내용은 가격 정책을 참조하세요.
You can obtain an API key from Google AI Studio (https://aistudio.google.com/apikey) and use it.
Google AI Studio(https://aistudio.google.com/apikey)에서 API 키를 얻어 사용할 수 있습니다.
OpenRouter Models
OpenRouter is a free, open source API that provides access to a variety of LLMs.
OpenRouter 모델
OpenRouter는 다양한 LLM에 접근할 수 있는 무료 오픈 소스 API입니다.
https://openrouter.ai/models?max_price=0 If you want to fine-tune the models to your needs, we recommend OpenRouter, which offers both paid and free models.
https://openrouter.ai/models?max_price=0 모델을 필요에 맞게 미세 조정하고 싶다면, 유료 및 무료 모델을 모두 제공하는 OpenRouter를 추천합니다.
MCP Server
After installing Cline and setting up the LLM model, you can easily install it from the MCP Server menu in the Cline Marketplace.
MCP 서버
Cline을 설치하고 LLM 모델을 설정한 후, Cline 마켓플레이스의 MCP 서버 메뉴에서 쉽게 설치할 수 있습니다.
After installation, you can use MCP in Cline Chat to request the desired action.
설치 후, Cline 채팅에서 MCP를 사용하여 원하는 작업을 요청할 수 있습니다.
MCP Configuration File
You can manually set this file via ‘MCP Server Configuration’ in the ‘Installed’ menu of the MCP Server menu.
MCP 구성 파일
MCP 서버 메뉴의 ‘설치됨’ 메뉴에 있는 ‘MCP 서버 구성’을 통해 이 파일을 수동으로 설정할 수 있습니다.
Node
If you have configured your Node environment using NVM, you may not be able to connect to MCP from the IDE. In this case, please proceed by installing Node directly on your system.
Node
NVM을 사용하여 Node 환경을 구성한 경우, IDE에서 MCP에 연결하지 못할 수 있습니다. 이 경우 시스템에 직접 Node를 설치하여 진행하세요.