기술적 코딩 및 프로그래밍 성능
개발자들은 버그 탐지 및 과학적 코딩 분야에서 뛰어난 결과를 보고하고 있으며, 많은 이들이 이를 기술적 작업을 위한 최상위 도구로 평가하고 있습니다.
사용자들은 DeepSeek V4 Pro의 뛰어난 기술적 코딩 성능과 공격적인 가격 정책에 찬사를 보내고 있지만, 심각한 추론 지연 시간과 모델의 출력물 내에 존재할 수 있는 지정학적 편향성에 대해서는 여전히 큰 불만을 가지고 있습니다.
개발자들은 버그 탐지 및 과학적 코딩 분야에서 뛰어난 결과를 보고하고 있으며, 많은 이들이 이를 기술적 작업을 위한 최상위 도구로 평가하고 있습니다.
이 모델은 폐쇄형 소스의 경쟁 모델들에 비해 파격적인 비용 효율성과 오픈 웨이트(open weights)의 가용성으로 인해 널리 찬사를 받고 있습니다.
추론 작업 시 발생하는 '차원이 다른' 느린 속도와 로컬 하드웨어 실행을 위해 요구되는 방대한 VRAM 사양에 대한 상당한 불만이 제기되고 있습니다.
비판론자들은 일반적인 데이터 프라이버시 불안과 더불어, 중국산 모델이라는 배경과 연관된 잠재적인 검열 및 정치적 편향성을 지적합니다.
Claude가 가장 현실적인 것 같지만, 과제를 가장 잘 이해한 건 Gemini인 것 같네요.“Claude seems the most realistic, but Gemini seems like it best understood the assignment.”
프랙탈(fractal)을 요청하셨는데, 그 결과는 확실히 Gemini나 DeepSeek의 결과물에 더 가깝네요.“You asked for fractal though, which clearly is more like gemini and deepseek's result”
경쟁은 좋은 것입니다. 오픈 소스는 더 좋고요. 더 저렴하고 충분히 성능 좋은 AI는 모두에게 도움이 될 것입니다. Openseek 감사합니다 🙏“Competition is good. Open Source even better. Cheaper and good-enough AI should benefit everybody. Thank you Openseek 🙏”
제가 보기에 v4 pro는 아직 학습이 많이 부족한 상태인 것 같습니다. 앞으로 몇 달 안에 새로운 체크포인트가 나오면 성능이 크게 향상될 것으로 기대합니다.“To me the v4 pro seems to be hugely undertrained. I expect we're going to see huge gains in that model when we get new checkpoints in coming months.”
좋은 동양권 모델이 출시될 때마다 기쁩니다. 북반구 제국(서구권)의 과점에 대한 대안을 갖는 것은 매우 중요하니까요.“Sempre que um bom modelo oriental é lançado eu comemoro. Ter alternativas ao oligopólio do império do norte é fundamental”
Qwen 3.6 27b. 제가 로컬에서 돌려본 모델 중 최고입니다(새로운 Qwen 모델이니 예상은 했지만요). 그런데 차이가 정말 압도적입니다. 이제 아주 야심찬 프로젝트가 아니면 더 이상 API를 쓰지 않습니다. 코드 수정, PC 탐색, 리서치, 심지어 주제 탐색까지요. 테스트한 후 이렇게 오랫동안 모델 사용에 열광해 본 적이 없습니다. 드디어 '충분히 좋은' 모델이 나왔네요.“Qwen 3.6 27b. Melhor modelo que eu rodei localmente ( o que é esperado de um modelo novo da qwen), mas por uma margem insana. Eu não uso mais api pra nada que não seja os projetos mais ambiciosos. Alteração no código, navegação no pc, pesquisas, e até exploração mesmo de temas. Eu nunca fiquei entusiasmado pra usar um modelo por tanto tempo depois de ter testado. Finalmente é um modelo que é BOM O SUFICIENTE”
DeepSeek이 제 인생을 구하고 있습니다. C++ 그래픽 프로젝트를 해결하려고 Claude Max 플랜 결제를 고민하며 계산기를 두드리고 있었거든요. 이건 판도를 완전히 바꿨습니다. 정말 훌륭하게 작동해요. 소비자들을 힘들게만 하는 미국의 오만함은 질색입니다. 오늘날 AI에서 인류에게 가치를 전달하고 접근성을 높이는 건 중국 모델들입니다. DeepSeek이 제대로 한 수 가르쳐주고 있네요! 심지어 미국이 강요하는 시장 보호를 이용하는 다른 중국 모델들보다도 낫습니다. 분석 영상 감사합니다!“O deepseek tá salvando minha vida. Tava cogitando um plano max do claude e fazendo as contas pra resolver um projeto gráfico em c++. Ele simplesmente mudo completamente o jogo. Vc trabalha lindamente com ele. Pau no c* dos EUA e sua arrogância. Sempre querendo f*der com o consumidor. Se tem algo que entrega valor pra humanidade em IA hoje, que torna acessível, são os modelos chineses. DeepSeek tá dando aula!!! inclusive pra outros modelos chineses que se aproveitam da reserva de mercado que os EUA impõem!! e parabéns pelo vídeo e pelas análises!! não aguentava mais essas análises de oneshot inúteis!!!”
저는 OpenRouter를 통해 v4 pro와 flash를 워커 서브 에이전트로 사용합니다. 설계나 기획, 토론, 리서치는 하지 않고 오직 구현만 담당하게 하죠. 그러면 GPT 5.4 수준의 성능을 거의 5.4 nano 가격, 아니 사실 nano보다 더 싼 가격에 얻을 수 있습니다. flash는 훨씬 더 대단하고요. 가성비 면에서 이와 경쟁할 수 있는 모델은 세상에 없다고 봅니다. 단연코 가장 저렴한 SOTA 모델입니다. 아직 중국 모델을 설계 단계에서 테스트해보진 않아서 여전히 Claude나 GPT 모델을 선호하긴 하지만, 곧 해봐야겠네요.“i use v4 pro and flash via openrouter as worker subagents. so they dont design, plan, discuss or research don't do anything other than implementations. u get gpt 5.4 level performance almost for 5.4 nano pricing, in fact its even cheaper than nano. flash is even crazier. i dont think there is any model out there which can compete with this in cost effectiveness. its by far the cheapest sota model. like by far. the reason I dont fully use them is becuz i still prefer claude/gpt models for design etc, not that i tested chinese ones yet on that front. i probably should.”
재미있는 점은 제가 ChatGPT와 DeepSeek을 모두 쓰지만, 결과 해석에 따라 목적을 다르게 쓴다는 것입니다. 이 영상이 제가 왜 각각을 선호하는지 명확히 답해줬네요. 1. DeepSeek: 기술적이거나 객관적인 모든 것 (예: PC OS 트러블슈팅, 수학, 과학 등) 2. ChatGPT: 사회적이거나 주관적인 모든 것 (예: 소셜 기획, 식당 추천, 예술 등)“The funny thing is that I use both ChatGPT and DeepSeek in my personal life, but they're for different purposes, based on the results I've interpreted. This video fully answered why I prefer them for their respective purposes: 1. DeepSeek for anything technical or objective (e.g. troubleshooting my PC OS, mathematics, science, etc.) 2. ChatGPT for anything social or subjective (e.g. social planning, restaurant recommendations, arts, etc.)”
맞습니다. 하지만 그건 Dense 모델 이야기고, MoE는 희소성(sparsity)에 따라 스케일링이 다릅니다 - https://arxiv.org/abs/2507.17702“Yeah though that's for dense. MoE have different scaling, depending on sparsity - https://arxiv.org/abs/2507.17702”
그래프는 각 게시물의 추출 샘플(n≤30) 기반
impact_sy
r/singularity
r/singularity
r/LocalLLaMA
r/LocalLLaMA
r/singularity
r/singularity
r/LocalLLaMA
r/singularity
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/singularity
AI Code Clash
Asian Boss
Matthew Berman
AI Explained
AI Search
零度解说
Bijan Bowen
David Ondrej
Vini - AI Coders Academy
Chase AI
零度解说