ChatGPT는 출시 이후 빠르게 최고 모델 중 하나가 되었습니다. Google은 Gemini 모델을 따라잡고 있으며, 2025년에는 거의 모든 회사가 앱에 AI를 통합하고 이를 중심으로 서비스를 구축했습니다.
이것 역시 비용이 듭니다. OpenAI는 ChatGPT 개발에 수십억 달러를 쏟아부었습니다. 그러나 딥시크 모델을 가진 한 중국 AI 회사는 ChatGPT 상위 추론 모델의 역량과 거의 일치하지만, 비용의 일부만으로 개발된 것으로 보입니다.
이는 미국 시장에 영향을 미쳐 AI 챗봇과 LLM의 개발을 재고 하게 만들었습니다. 딥시크은 너무나 혁신적이어서 이제 로컬에서 질문에 답하기 전에 사고 능력으로 유명한 LLM 추론 모델을 실행할 수 있습니다. Windows와 Mac에서 로컬로 DeepSeek을 실행하는 방법에 대한 자세한 가이드가 이미 있습니다.
이 가이드에서는 Android 스마트폰에 DeepSeek R1 모델을 설치하고 로컬로 실행하는 방법을 살펴보겠습니다.
장치에 딥시크를 로컬로 설치하고 실행하기 위한 최소 장치 요구 사항
LLM은 작동하기 위해 리소스가 필요하므로, DeepSeek R1을 로컬로 장치에 설치하고 사용하기 위한 최소 시스템 요구 사항이 설정되어 있습니다. 이는 더 작은 1.5B 모델에 대한 시스템 요구 사항임을 기억하세요. 7,8,32B, 700억 모델도 더 높은 시스템 요구 사항이 필요합니다.
| 명세서 | 최소 사양 |
| 숫양 | 8GB 이상 |
| 프로세서 | Snapdragon 8 Gen 2 또는 동급 |
| 저장 | 최소 12GB의 여유 공간 |
| 운영 체제 | 안드로이드 12 이상 |
이를 염두에 두고, 시스템 요구 사항을 충족하는 안드로이드 플래그십 스마트폰이 필요하다면, 단계별 가이드를 따라가서 기기에 DeepSeek AI를 설치하고 실행해 보겠습니다.
장치에서 딥시크를 로컬로 실행하기 위한 단계별 가이드
여러 가지 방법으로 딥시크 AI를 로컬로 기기에 설치하고 실행할 수 있습니다. 이 게시물에서는 Termun을 사용하여 로컬 AI 모델을 로컬로 설치하고 실행하는 방법을 알아봅니다. 그러나 이를 위해서는 터미널을 사용해야 합니다. 쉬운 방법을 원하면 Pocketpal AI 앱을 사용할 수 있습니다. 두 번째 방법을 참조하세요.
1단계: Termux 설치
1.1단계: 공식 GitHub 페이지에서 Termux 앱을 다운로드합니다.
Termux는 모바일 기기와 같은 Android에 명령줄을 제공하는 터미널 에뮬레이터 Android 앱입니다. 명령줄 프로그램을 실행하고, Linux 패키지를 설치하고, 셸 명령을 실행하고, Python 및 SSH와 같은 도구를 기기에 설치할 수 있습니다. 가장 중요한 점은 많은 앱과 달리 루트 액세스가 필요하지 않아 누구나 기기를 루팅하거나 제일브레이킹하지 않고도 이 앱을 설치할 수 있어 기업에서 사용하기 안전하고 쉽습니다.
이 앱은 Play Store에서 제거된 후 Google Play Store나 App Store에서 사용할 수 없습니다. 그러나 Github와 같은 타사 소스와 웹사이트에서 쉽게 설치할 수 있습니다. Termux에 대한 공식적이고 안전한 링크에 대한 자세한 가이드도 있습니다. 가이드를 방문하여 최신 APK를 설치할 수 있습니다.
이 가이드에서는 GitHub 페이지에서 Termux를 설치할 수 있습니다.
1.2단계: Github Termux 다운로드 페이지 방문
1.3단계: 아래로 스크롤하여 F-Driod 섹션 아래에서 다운로드 링크(여기) 를 클릭하거나, 이 직접 다운로드 링크를 사용하여 F-Drop 페이지를 방문할 수 있습니다.
1.4단계: 아래로 스크롤하여 앱의 최신 버전을 찾습니다(이 글을 쓰는 시점에서 최신 버전은 0.119.0-beta.1(1020)입니다. 제 경우에는 문제없이 잘 작동했습니다. 문제가 있는 경우 안정적인 버전을 다운로드할 수 있습니다. 아래로 스크롤하여 버전 0.118.1(1000) 버전을 설치합니다).
1.5단계: APK 파일 다운로드 를 클릭하여 다운로드합니다.
1.6단계 : 다운로드한 파일로 가서 설치를 클릭합니다. 권한이 필요한 경우 Android 설정에서 ' 알 수 없는 출처에서 설치'를 활성화합니다. 기기에 Termux를 설치 하고 엽니다.
1.7단계: 보안 메시지가 나타나면, 더보기 옵션을 클릭하고 설치 옵션을 탭하면 앱이 기기에 성공적으로 설치됩니다.
2단계: 이제 Termux를 설정해 보겠습니다.
해당 사이트에 접속한 후에는 Termux가 장치에서 실행되도록 설정해야 합니다.
이렇게 하려면 앱을 열고 저장 권한을 부여하세요. 기본적으로 Termux는 앱을 설치한 후 휴대폰 파일에 액세스할 권한이 없습니다. 이 명령을 사용하면 Android 파일에 액세스하고, 데이터를 읽고 저장하고, 파일 관리 명령을 사용할 수 있는 권한을 부여할 수 있습니다.
2.1단계: Android 스마트폰에서 Termux 앱을 열고 이 명령을 입력한 후 Enter를 누릅니다. termux-change-repo
하지만 이 작업을 하는 동안 Android가 권한 부여를 거부할 때 발생하는 '권한 거부' 오류와 같은 일반적인 오류가 발생할 수 있습니다. 설정 > 앱 권한 으로 이동하여 이를 수정하고 저장소 권한을 수동으로 활성화하세요.
사용자가 직면하는 또 다른 일반적인 오류는 ' 해당 파일 또는 디렉토리 없음 ' 오류로, 저장소가 초기화되지 않았다는 의미입니다. 이 경우 Termux 앱을 닫고 다시 열고 강제로 중지한 다음 명령을 실행한 후 다시 엽니다.
2.2단계: 다음으로, 패키지 저장소를 업데이트해야 합니다. 아래 명령을 사용하여 패키지 저장소를 업데이트할 수 있습니다. Termux 앱에서 다음 명령을 입력합니다. apt update && apt upgrade -y
모든 패키지를 업데이트하려면 Termux 저장소를 업데이트해야 합니다. 이렇게 하면 최신 보안 패치를 받고 호환성 문제를 방지하는 데 도움이 됩니다. 그러나 이 작업을 수행할 때는 서버에서 최신 패키지를 가져와 Termux 앱에 설치할 수 있도록 활성 인터넷 연결이 되어 있는지 확인하세요.
3단계. 다음으로 PRoot Distro 및 Debian 12 설치
다음으로, Termux 내에 Proot-Distro와 Debian을 설치해야 합니다. Proot 패키지를 사용하면 Termux 내에서 Debian 이나 Ubuntu 와 같은 Linux 배포판을 실행할 수 있습니다.
3.1단계: PRoot Distro를 설치하려면 Termux 앱에 다음 명령을 입력합니다: pkg install proot-distro -y 그리고 enter를 누릅니다.
이 작업을 하는 동안 ' 패키지를 찾을 수 없음' 오류가 발생하면 Termux가 업데이트되지 않은 것입니다. 다시 apt update && apt upgrade -y 명령을 실행하고 이 명령을 사용하는 동안 활성 인터넷 연결이 있는지 확인하십시오.
다음으로, Termux에 Debian을 설치해야 합니다. Debian은 가볍고 Proot-Distro를 사용하여 Android에서 실행되는 무료 오픈 소스 Linux 배포판입니다. 아래 명령을 사용하여 최신 버전의 Debian을 설치할 수 있습니다. 또한 기기에 충분한 저장 공간과 안정적인 인터넷 연결이 있는지 확인하세요.
3.2단계: 터미널에 다음 명령을 입력하세요: proot-distro install debian
3.3단계: 다음으로, 다음 명령을 사용하여 데비안에 로그인해야 합니다: proot-distro login Debian.
4단계. DeepSeek R1을 설치하고 사용하려면 TMUX 및 Ollama를 설치하세요.
다음으로, DeepSeek R1을 로컬로 실행하려면 장치에 TMUX와 Ollama를 설치해야 합니다. 이를 위해 먼저 Debian 패키지 목록을 업데이트해야 합니다. 다음 명령을 사용하여 모든 Debian 패키지 목록을 최신 버전으로 업데이트할 수 있습니다.
4.1단계: 다음 명령을 입력하세요: apt update && apt upgrade -y 하여 데비안 패키지 목록을 업데이트합니다.
다음으로, 여러 터미널 세션을 관리하려면 TMUX를 설치해야 합니다. TMUX를 사용하면 단일 창 내에서 여러 터미널 세션을 실행할 수 있습니다. TMUX를 설치하는 주된 이유는 실수로 연결이 끊어지더라도 AI 모델을 백그라운드에서 계속 실행하는 데 도움이 되기 때문입니다. 또한 터미널을 여러 창으로 분할하여 멀티태스킹을 개선하고 여러 작업을 동시에 실행하는 것과 같은 다른 이점도 있습니다.
4.2단계: 다음 명령을 사용하세요: apt install tmux -y TMUX를 설치합니다.
다음으로, Android용으로 설계된 도구인 Ollama를 설치해야 합니다. 이 도구를 사용하면 기기에서 로컬로 AI 모델을 실행할 수 있습니다. 이 도구를 사용하여 DeepSeek R1과 Meta Llama를 기기에서 로컬로 실행할 수 있습니다. 또한 ChatGPT와 같은 오프라인 AI 인터페이스도 지원합니다.
4.3단계: 이 모든 작업을 마치면 DeepSeek R1을 장치에 로컬로 설치하고 실행해야 합니다. 다음 명령을 사용하여 Ollama를 설치합니다. curl -fsSL https://ollama.ai/install.sh | sh
5단계. DeepSeek R1 설치 및 실행
다음으로, Termux 내부에서 Ollama 서버를 시작해야 합니다. 이를 위해 다음 명령을 사용합니다.
5.1단계: TMUX 내부에서 Ollama 서버 시작: tmux ollama serve
5.2단계: 새 TMUX 창을 열고 터미널을 여러 창으로 나눕니다. 이는 한 창에서 AI 모델을 실행하거나, 로그를 모니터링하거나, 다른 터미널에서 명령을 입력할 때 유용할 수 있습니다. 다음 단축키를 사용하여 터미널을 나눕니다. Control+B+” 를 클릭합니다.
다음으로, DeepSeek R1 1.5B 모델을 기기에 로컬로 설치해야 합니다. DeepSeek R1 모델에는 여러 가지 모델이 있습니다. Android는 리소스가 제한되어 있고 이러한 모델을 로컬로 실행하려면 많은 리소스가 필요하므로 1.5B 모델이 대부분 Android 기기에 가장 안정적인 모델입니다. DeepSeek R1이 지원하는 모델 목록은 다음과 같습니다.
|
딥시크-R1:1.5B
|
1.1GB (1.1GB)
|
RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유 공간 |
|
딥시크-R1:7B
|
4.4GB (기가바이트)
|
- RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유공간 |
|
딥시크-R1:8B
|
4.9GB (4.9GB)
|
RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유 공간 |
|
딥시크-R1:14B
|
9.0GB (기가바이트)
|
- RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유공간 |
|
딥시크-R1:32B
|
22GB (22기가바이트)
|
- RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유공간 |
|
딥시크-R1:70B
|
43기가바이트
|
- RAM: 8GB
- 프로세서: Snapdragon 8 Gen 2 또는 동급 - 저장공간: 12GB 여유공간 |
다음 명령을 사용하여 장치의 DeepSeek R1 1.5B 로컬 모델을 다운로드합니다. 이렇게 하면 장치에 다운로드되어 저장됩니다. 장치에 각 모델에 필요한 최소 스토리지가 있는지 확인하세요.
5.3단계: 새로운 Termux 창에서 다음 명령을 사용하여 DeepSeek R1(1.5B 모델)을 설치합니다: ollama pull deepseek-r1:1.5b
하이엔드 플래그십 기기가 있다면 같은 명령어를 사용하여 8B 모델을 설치할 수 있습니다. 마찬가지로 다른 하이엔드 기기가 있다면 15B 매개변수 모델을 기기에 로컬로 설치할 수 있습니다.
참고로, 모델 매개변수가 많을수록 모델의 역량이 커집니다. 대부분의 사용 사례에서 1.5B 매개변수 모델은 대화에만 적합한 선택입니다. 그러나 8B 매개변수 모델은 합리적이며 더 많은 지식과 더 나은 성능을 원할 경우 종종 권장됩니다.
그게 전부입니다. 이제 장치에 DeepSeek R1을 성공적으로 설치했습니다. 이제 DeepSeek R1이 설치되었으므로 Termux를 사용하여 장치에서 로컬로 실행할 수 있습니다.
6단계. 장치에서 로컬로 DeepSeek 실행
6.1단계: 터미널에서 DeepSeek R1을 실행하려면 다음 명령을 사용하세요: ollama run deepseek-r1:1.5b.
명령어에 올바른 모델 번호를 사용해야 합니다. 1.5B 모델을 설치한 경우 명령어에 동일한 모델 이름을 사용합니다. 8B 모델을 설치한 경우 명령어를 사용합니다.
이제 텍스트 입력을 사용하여 모델과 상호 작용해 볼 수 있습니다. 모든 것이 터미널을 통해 실행되므로 ChatGPT와 상호 작용할 GUI(그래픽 사용자 인터페이스)가 없습니다. 텍스트 입력을 사용하여 동일한 터미널에서 결과를 얻을 수 있습니다.
장치의 로컬 스토리지 및 처리 능력에 따라 모델은 사용 가능한 리소스에 따라 출력을 생성합니다. 다음은 장치에서 로컬로 AI 세션을 관리하기 위한 가장 일반적인 Termux 단축키입니다. CTRL + C를 사용하여 AI 모델을 중지하고, CTRL + D를 사용하여 종료하고, 모델로 돌아가는 등의 작업을 수행할 수 있습니다.
PocketPal을 사용하여 장치에서 DeepSeek R1을 로컬로 실행
위의 방법이 너무 어렵다면 PocketPal AI를 사용할 수 있습니다. PocketPal AI는 장치에 로컬로 AI 모델을 설치하고 실행하는 무료 앱입니다. 아래 단계를 따르세요.

1단계: Google Play Store 에서 PocketPal 앱을 설치합니다 .
2단계: 앱을 열고 모델 로 이동하세요
3단계: 더하기 아이콘을 클릭 하고 Hugging Face에서 추가를 탭합니다.
4단계: 버튼의 검색창을 사용하여 딥시크 R1 모델을 검색하세요.
5단계: 기기 저장 한도에 따라 모델을 선택하고 다운로드 아이콘을 클릭합니다. 모델이 다운로드될 때까지 기다립니다.
6단계: 다운로드가 완료되면 홈 화면으로 돌아가서 모델을 선택하고 '불러 오기'를 클릭하세요 .
이렇게 하면 딥시크 R1이 귀하의 기기에 로컬로 로드됩니다. 위의 방법과 달리, 모델과 상호 작용할 수 있는 채팅 그래픽 인터페이스가 제공됩니다. 필요한 경우 인터넷 연결을 끌 수도 있습니다.
모바일에서 로컬로 AI 모델 실행
딥시크가 파괴적이고 소비자에게 매우 유익하지만, 여러 보고서에 따르면 DeepSeek가 중국 기업에 데이터를 보낼 수 있다고 합니다. 이 모델을 로컬 기기에서 실행하면 데이터가 기기에 그대로 유지됩니다. 게다가 플래그십 스마트폰에 적합한 사양이 있다면 DeepSeek가 더 빠르고 응답하는 데 로딩 시간이 느려지지 않습니다. 이는 일반적으로 클라우드 모델에서 발생하는 문제입니다.
이 모든 것이 DeepSeek R1을 기기에 로컬로 LLM을 설치, 실행 및 사용하기에 좋은 리소스로 만듭니다.
저는 귀하의 자세하고 포괄적인 단계별 도움말을 공유했습니다. 설치하는 동안 여전히 문제나 오류가 발생하는 경우 아래에 의견을 남겨 주시면 도와드리겠습니다. 이 가이드가 도움이 되셨으면 합니다. 또한, Mac과 Windows에 DeepSeek를 로컬로 설치하는 방법에 대한 가이드도 확인해 보세요. 귀하의 전문 및 학생 작업에 매우 도움이 될 것입니다.
*참고한 원본 글: https://techpp.com/2025/02/14/how-to-run-deepseek-ai-locally-on-android/
댓글