Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeek이 다시 돌파구를 찾다

DeepSeek은 시각적 인식을 압축 매체로 사용하여 기존 방식보다 20배 적은 토큰으로 대용량 문서를 처리하는 DeepSeek-OCR 모델을 발표했습니다.

ZNewsZNews23/10/2025

DeepSeek, 기존 방식보다 7~20배 적은 토큰으로 문서 처리 가능한 새로운 AI 모델 출시. 사진: The Verge .

SCMP 에 따르면 DeepSeek은 기존 텍스트 처리 방법보다 7~20배 적은 수의 토큰으로 방대하고 복잡한 문서를 처리할 수 있는 새로운 다중 모달 인공지능(AI) 모델을 출시했습니다.

토큰은 AI가 처리하는 가장 작은 텍스트 단위입니다. 토큰 수를 줄이면 계산 비용이 절감되고 AI 모델의 효율성이 향상됩니다.

이를 위해 DeepSeek-OCR(광학 문자 인식) 모델은 시각적 인식을 정보 압축 수단으로 사용했습니다. 이러한 접근 방식을 통해 대규모 언어 모델은 계산 비용을 증가시키지 않고도 방대한 양의 텍스트를 처리할 수 있습니다.

DeepSeek은 "DeepSeek-OCR을 통해 시각적 인식을 사용하여 정보를 압축하면 토큰을 크게 줄일 수 있음을 보여주었습니다. 즉, 다양한 역사적 맥락 기간에 대해 7~20배까지 줄일 수 있으며, 이는 유망한 방향을 제시합니다."라고 밝혔습니다.

회사 블로그 게시물에 따르면 DeepSeek-OCR은 DeepEncoder와 디코더 역할을 하는 DeepSeek3B-MoE-A570M이라는 두 가지 주요 구성 요소로 구성되어 있습니다.

그 중 DeepEncoder는 모델의 핵심 엔진 역할을 하며 고해상도 입력에서 낮은 활성화 수준을 유지하는 동시에 강력한 압축률을 달성하여 토큰 수를 줄이는 데 도움을 줍니다.

디코더는 5억 7천만 개의 매개변수를 가진 전문가 혼합(MoE) 모델로, 원본 텍스트를 재생성하는 역할을 합니다. MoE 아키텍처는 모델을 입력 데이터의 하위 집합을 처리하는 데 특화된 하위 네트워크로 나누어 전체 모델을 활성화하지 않고도 성능을 최적화합니다.

문서 가독성 벤치마크인 OmniDocBench에 따르면 DeepSeek-OCR은 훨씬 적은 토큰을 사용하면서도 GOT-OCR 2.0 및 MinerU 2.0과 같은 주요 OCR 모델보다 우수한 성능을 보였습니다.

출처: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html


댓글 (0)

No data
No data

유산

수치

사업

젊은이들은 일년 중 가장 아름다운 벼농사철에 북서부로 가서 체크인을 합니다.

현재 이벤트

정치 체제

현지의

제품