Litecoin

Ai-era 보수 철학 : 블레이드의 모든 토큰을 사용하는 방법 가자

2026/04/03 12:48
🌐ko

계산된 단위는 변경 및 변경, 그리고 저축 돈의 instincts는 일정한 남아 있다。

Ai-era 보수 철학 : 블레이드의 모든 토큰을 사용하는 방법 가자
수면.md

단어 기반 전보 시대에서 펜은 돈이었습니다. 사람들은 "빠른 반환"이 긴 편지 인 지점에 수천 단어를 집광하는 데 사용되며 "peace"는 가장 무거운 통입니다。

전화는 나중에 집에 찍었지 만 장거리 요금은 초에 청구되었습니다. 부모의 장거리 전화는 항상 짧고, 사업이 완료되었을 때, 그들은 신속하게 굶주린, 그리고 한 번 대화는 약간 확산했다, 고통스러운 생각은 단지 등장 한 감기를 차단했다。

나중에 광대역이 온 인터넷은 1 시간 청구되었으며, 사람들이 화면에 타이머에 출연했으며 웹 페이지가 꺼졌고, 비디오는 다운로드되었습니다. 스트리밍 미디어는 고급 동사였습니다. 모든 다운로드의 끝에서, 세계를 연결하는 욕망과 균형에 대한 두려움。

계산된 단위는 변경 및 변경, 그리고 저축 돈의 instincts는 일정한 남아 있다。

이제 토큰은 AI 시대의 통화가되었습니다. 그러나 대부분의 사람들은 아직 보이지 않는 알고리즘에서 이득과 손실을 계산하는 방법을 배울 수 있기 때문에이 시대에서 일을 알아내는 방법을 배울 수 있습니다。

2022 ChatGPT는 거의 아무도 토큰에 대해 쫓아 나왔습니다. 그것은 A.I입니다. 큰 저녁 식사, 20 bucks 한 달, 얼마나 많은 얘기。

그러나 AI Agent의 최근 화재 이후, 토큰 지출은 AI Agent를 사용하는 모든 사람이 집중해야 무언가가되었습니다。

대답과 간단한 대화와 달리, 작업 스트림 뒤에 API 호출의 수백이 있고 에이전트의 독립적 인 생각은 가격과 모든 자기 연결, 모든 도구 호출, 청구서의 숫자의 비트에 해당합니다. 그리고 당신은 당신이 돈에서 밖으로 갑작스런의 모든 것을 발견하고 당신은 어떤 대리인이 되었는지 모른다。

실제 생활에서, 모두가 돈을 절약하는 방법을 알고. 우리는 음식을 구입하기 위해 시장에 가고, 우리는 muddled 잎을 청소하고 그(것)들을 무게를 다는 것을 알고 있습니다; 우리는 공항으로 가고, 오래된 운전사는 이른 첨단을 피하는 것을 알고 있습니다。

디지털 세상의 비용 절감 논리는 같은, 계정의 단위가 "칩"과 "kilometres"에서 토큰으로 변경되는 것을 제외하고。

과거에, 저축은 SCARCITY 때문에이었습니다; AI 시대에서, 저축은 정밀도를 위해 했습니다。

우리는 당신이 돈을 절약하는 AI-ERA 접근법으로 밖으로 돕기 위해이 문서를 원하고, 당신은 칼에 모든 페니를 소비합니다。

나는 가늠자의 앞에 나쁜 잎을 밖으로 가지고 갈 것입니다

AI 시대에서는 정보의 가치는 더 이상 빵에 의해 결정되지 않습니다 그러나 순수성에 의하여。

AI의 COSTING 논리는 읽는 단어의 수를 위탁하는 것입니다. 실제 지식이나 의미없는 형식과 함께 피드를 있든, 그것을 읽으면 지불해야합니다。

그래서이에 대해 생각하는 첫 번째 방법은 "노이즈 비율"을 의식하는 것입니다。

모든 단어는 AI, 모든 그림, 코드의 모든 줄이 지급됩니다. 그래서 당신은 AI에 아무것도 제공하기 전에, 자신을 물어보: 얼마나 정말 필요합니까? 얼마나 많은 진흙 잎

예를 들어, "안녕하세요, 나를 도와주세요 ..." 그런 길이의 인트로덕션 말, 반복 된 배경 노트, uncut 코드 노트, muddled 잎입니다。

이 외에도 가장 일반적인 폐기물은 PDF 또는 웹 샷을 AI로 직접 던집니다. 그것은 당신을 위해 정말 쉽습니다, 그러나 AI 시대의 "절약"은 종종 "COST"를 의미합니다。

완전히 포맷 된 PDF는 텍스트, 헤더, 발터, 차트 라벨, 숨겨진 워터 마크 및 레이아웃에 대한 많은 형식의 코드가 포함되어 있습니다. 이 것들은 AI가 당신의 문제를 이해하는 데 도움이되지 않습니다, 그러나 그들은 모든 청구됩니다。

다음으로 PDF를 깨끗한 Markdown 텍스트로 변환하고 AI로 공급하십시오. 10MB의 PDF를 10KB의 깨끗한 텍스트로 설정하면 돈의 99 %를 절약 할뿐만 아니라 AI의 두뇌가 이전보다 훨씬 빠릅니다。

그림은 또 다른 금 삼키입니다。

시각적인 모형의 논리에서, AI는 당신의 그림의 아름다움에 관하여 고민하지 않습니다, 그러나 얼마나 많은 화소 당신 OCCUPY。

Claude의 공식 계산 논리를 가져 가라 : 토큰 소비 = 폭 픽셀 x 높이 픽셀 750 사진。

(a) 1,000 x 1,000 픽셀의 사진, 약 1,334 토큰의 비용, Claude Sonet 4.6에서 변환, 약 US $ 0.004 각

그러나 같은 이미지를 200 x 200 픽셀로 압축하면 54 토큰을 $ 00016, 25 배의 차이로 소비합니다。

많은 사람들이 모바일 폰, 4K 스크린 샷, AI에 고해상도 사진을 던졌습니다. 이 이미지는 AI를 읽을 정도로 AI를 읽을 수 있습니다. 작업이 단순히 그림에 텍스트를 식별하거나 AI를 허용하는 것과 같은 간단한 시각 판단을 만들 경우 청구서에 양을 식별 할 수 있습니다, 지침에 텍스트를 읽거나 차트에 빨간색과 녹색 조명이 있는지 결정하기 위해, 다음 4K의 해상도는 순수 폐기물이며, 최소 사용 가능한 해상도로 사진을 압축하는 것이 충분합니다。

그러나 입력 끝이 낭비 토큰에 가장 쉬운 이유는 파일 형식이 아니지만, 대화하는 효율적인 방법입니다。

AI에 대해 이야기하는 데 사용되는 많은 사람들이 실제 이웃, 사회화, 깨진, 그리고 "나를위한 웹 페이지를 쓰기"를 먼저, AI를 기다리고 반 완성 된 제품을 침을 때까지, 다음 세부 사항을 추가하고 다시 당겨. 이 치약 대화는 AI를 통해 콘텐츠를 다시 생성하고, 수정의 각 라운드는 토큰 소비 이상입니다。

실습에서 동일한 수요가 많고, 투약 토큰을 끝내는 치약 대화의 많은 라운드가 한 번에 3 ~ 5 배 더 분명하게 발견되었습니다。

돈을 절약 할 수있는 실제 방법은이 효율적인 사회 실험을 포기하고 한 번 명확하게하고 모든 요구 사항, 국경 조건 및 예입니다. 더 적은 노력은 "do nothing"을 설명하기 위해 필요하며, 부정적인 문장이 종종 긍정적 인 문장보다 더 많은 비용이 들기 때문입니다. 그것은 무엇을해야하며 명확하고 올바른 예를 제공합니다。

그 사이에, 대상이 어디인지 알고, 그냥 AI에 이야기, 그리고 AI가 형사로 이동하지 않습니다。

AI를 "사용자 관련 코드를 참조하십시오", 그것은 대규모 스캐닝, 분석 및 speculation backstage를 할 필요가있다; 그리고 당신이 그것을 말할 때 " src/services/user.ts의이 파일을 참조하십시오," 토큰의 소비는 하루에서 변화, 디지털 세상에서, 정보 parity는 가장 큰 절약입니다。

AI의 법정 지불하지 마십시오

큰 모델 청구서에는 많은 사람들이 실현하지 않는 하위 루가 있습니다. 출력 토큰은 일반적으로 입력 토큰보다 3 ~ 5 배 더 비쌉니다。

즉, AI가 말하는 것보다 훨씬 비쌉니다. Claude Sonet 4.6의 경우 예를 들어, 만 $ 3 만 토큰이 입력되었습니다. 출력이 급격히 $ 15, 전체 5 배 가격 차이로 뛰어납니다。

POLITE 낱말 "WELL, 나는 당신의 필요를 이해하고, 나는 당신에 대답하기 위하여 처음이다" 그리고 당신이 소통할 때 POLITE 사회적인 낱말로 끝이, 그러나 API 계산서에, 이 NO-MESSAGING 냉각은 당신을 비용으로 갈 것입니다。

출력 폐기물을 해결하는 가장 효과적인 방법은 AI의 규칙을 설정하는 것입니다. 체계 지시를 사용하여 명확하게 말하십시오: 냉각하지 마십시오, 설명하지 마십시오, 필요를 반복하지 마십시오, 다만 대답을 주지하십시오。

이 규칙은 한 번만 설정되어 모든 대화에서 효과적이며 "1 투자, 1 지속적 이익"의 실제 수단입니다. 그러나 규칙을 설정, 많은 사람들이 다른 실수에 잡혔다 : 긴, 자연 언어의 지시를 겹쳐。

엔지니어의 empirical data show that the effect of the command is not in word count, 하지만 밀도. 반복된 지시를 결합하고 항목의 간단한 명부로 단락을, AI의 산출 질은 거의 non-variant이고, 단 하나 부르는 토큰 소비는 64 퍼센트에 의해 떨어질 수 있습니다 삭제해서, 500 단어 체계 hint를 180의 낱말에 압축하십시오。

출력 길이를 제한하는 더 유능한 제어가 있습니다. 많은 출력 천장을 설정하지 않고 AI로 왼쪽, 이는 표현할 권리 허용, 종종 극단적으로 비용 손실에 주도. 조금 짧은 문장이 필요하지만 AI는 800 단어 조각을 생산하기 위해 "INTELLIGENCE"의 일부 종류를 표시하기 위해。

순수 데이터를 찾고 있다면, AI를 강제로 긴 자연 언어 설명보다 구조화 된 형식으로 돌려야합니다. 동일한 양의 정보가 수행 된 상태에서 JSON 형식의 토큰 소비는 분산 된 문화에서 훨씬 낮습니다. 이 구조화 된 데이터는 모든 중복 연결 단어, 단어 및 탐험 교정을 제거하고 논리적 핵심의 높은 농도를 유지합니다. AI 시대에서, 당신은 AI의 의미없는 자기 해석이 아니라 결과의 가치 인 지불 가치가 있다는 것을 깨달아야한다。

이 외에도 AI의 "OVERTHINKING"은 계정 잔액을 FRENZIING합니다。

몇몇 진보된 모형에는 대답하기 전에 다량 내부 reasoning와 더불어 "확장" 모형이, 있습니다. 이 이유는 또한 비싸고 산출의 가격에 가격。

이 모형은 근본적으로 “깊은 논리를 요구하는 복잡한 일을 위해 디자인됩니다”. 그러나 대부분의 사람들은 간단한 질문을 할 때이 모델을 선택했습니다. 심층적 인 이유가 필요하지 않은 작업에 대해 AI에 명확하여 "응답이 필요하거나 수동으로 전환 할 필요가 없습니다。

AI가 오래된 청구서를 켭니다

큰 모델은 진짜 기억이 없습니다. 그것은 오래된 책에 대해 미쳤다。

이것은 많은 것을 모르는 밑바닥 위로 기계장치입니다. 대화 창에서 새로운 메시지를 보낼 때마다 AI는 단어에서 이해하기 시작할 수 없습니다. 그러나 이전, 모든 대화의 라운드, 모든 코드, 모든 참조 문서에 대해 이야기 한 모든 것을 다시 보겠습니다。

토큰의 청구서에서이 "좋은 새로운"는 무료입니다. AI 뒤에 전체 계정을 다시 한 번의 비용은 대화가 계속 증가합니다. 이 메커니즘은 대화의 역사가 더 비싸다는 것을 결정합니다。

20개 이상의 기사를 포함하는 496개의 진짜 대화는 뒤에 이고, 1개의 메시지 당 대략 3.6 센트의 비용에 14,000의 토큰을 평균하게 된 기사 1개의 메시지가 있습니다; 기사 50에 의하여, 79,000의 토큰의 평균은 메시지 당 대략 4.5 센트의 비용을 읽었습니다, 80%의 총 비용을 대표합니다. 또한, 컨텍스트는 더 이상 성장하고, 기사 50의 시간에 의해, AI가 문서 1보다 더 큰 이미 5.6 배 더 많은 것을 처리해야 할 것입니다。

이 문제를 해결하는 가장 간단한 습관은 작업, 대화 상자입니다。

주제가 완료되면, 결정과 새로운 대화를 시작, 결코 폐쇄하지 않는 채팅 창으로 AI를 사용하지 마십시오. 습관은 간단하지만, 많은 사람들이 그것을 할 수 없습니다, 그들은 생각, "우리는 우리가 무엇을 사용하는지?" 사실, "IF"의 대부분이 일어나지 않는 걱정, 그리고 그, 당신은 이미 모든 뉴스에 더 많은 것을 지불했다。

대화가 계속되어야 할 때, 그러나 상황에는 오래되고, 우리는 압축하는 공구의 일부를 사용할 수 있습니다. Claude Code는 짧은 요약으로 긴 대화의 역사를 condensate 할 수있는 / compact 명령을 가지고 있으며 Sabotage Breakup을 할 수 있습니다。

그리고 논리를 저장은 Prompt Caching입니다. 같은 시스템 힌트를 반복적으로 사용하는 경우, 또는 같은 참조 문서를 참조하는 경우, AI는 메시지의이 부분을 캐시합니다. 다음 통화는 전체 가격에서 액세스의 매우 낮은 비율로 만들어집니다。

Anthropic의 공식 가격은 캐시 토큰 가격이 정상 가격의 1/10이다는 것을 보여줍니다. OpenAI의 Prompt Caching은 약 50 %의 입력 비용을 절감합니다. 1 월 2026에서 arXiv에 게시 된 종이는 여러 AI 플랫폼의 긴 임무를 테스트했으며 45%에서 80 %로 API 비용을 줄였습니다。

즉, 같은 것, 처음에 나는 AI가 전체 가격을 지불하고 그 후에 모든 전화는 1/10을 지불했다. 이 기능은 매일 표준 문서 또는 시스템 힌트의 동일한 세트를 반복하는 사용자를위한 많은 토큰을 절약합니다。

그러나 Prompt Caching는 시스템 경고 및 참조 문서의 내용 및 순서가 일관성 있고 대화의 상단에 배치해야합니다. 콘텐츠에 어떤 변화가 있으면, 캐시가 lapse과 전체 가격으로 재구성됩니다. 그래서 당신이 고정 작업 코드를 가지고 있다면, 그것을 아래로 작성, 그리고 그것을 변경하지 않습니다。

컨텍스트 관리의 마지막 기술은 필요에 따라 로드됩니다. 모든 규칙을 넣고 싶은 많은 사람들이, 문서, 시스템의 힌트에주의 "단일 경우"라고 주장합니다。

그러나 그렇게하는 가격은 규칙의 수천 단어를로드하고 vain에서 토큰의 무리를 낭비하는 것이 아니라 간단한 작업을하고 있습니다. Claude Code의 공식 문서는 CLUDE.md가 200 라인 내에서 유지된다는 것을 건의합니다. 다른 시나리오에 대한 특별한 규칙은 별도의 기술 파일로 끊어지고, 해당 장면이로드되는 규칙이 사용됩니다. 컨텍스트의 절대 순도는 가장 높은 수준에 대한 존중입니다。

음식을 사는 포르쉐를 가지고 있지 마십시오

다른 AI 모형, 가격 간격은 거대합니다。

클로드 오푸스 4.6 백만 토큰 입력 당 5 달러, 25 달러 출력, 3.5 달러 클래드 하이쿠, 0.8 달러 입력, 4 달러 출력, 거의 6 배 차이. 그것은 단지 느리지만, 또한 정보 수집, 레이아웃 형식의 합창을 수행하기 위해 상단 모델을 얻을 비싼。

SMARTLY USED는 AI 사회에 우리의 인간 사회에서 공통되는 노동의 "CLASS 부문"을 가져오는 것입니다, 다른 어려운 작업과, 다른 가격에 모델。

진정한 세상에서 일하기 위해 고용하는 사람들처럼, 당신은 벽돌을 이동하는 백만 살 전문가를 고용하지 않습니다. 그래서 AI입니다. Claude Code의 공식 파일 또한 명확하게 Sonnet가 가장 프로그래밍 작업을 처리한다는 것을 건의합니다. Opus는 복잡한 아키텍처 결정과 다단계 소싱을 나타낸다. 그리고 간단한 소싱은 Haiku에 할당됩니다。

더 구체적으로, 실용적인 접근은 2 부분 워크플로우를 구축하는 것입니다. 첫 번째 단계에서 더러운 작업의 첫 번째 단계는 데이터 수집, 형식 정리, 첫 번째 세대, 간단한 분류 및 집계와 같은 무료 또는 저렴한 기본 모델을 사용하여 수행됩니다. 두 번째 단계에서 세련된 고순도 고움은 핵심 결정 및 깊이 정제를위한 최고 모델로 훈제됩니다。

예를 들어, 100 페이지 산업 보고서를 분석하려는 경우, Gemini Flash의 보고서에서 핵심 데이터와 결론을 추출 할 수 있으며 10 페이지 요약을 형성하여 심층 분석 및 판단을 위해 Claude Opus로 보내질 수 있습니다. 이 두 파트 워크는 품질 보증으로 상당한 비용 압축을 허용합니다。

간단한 sub-processing보다 더 진보 된 것은 작업 deconstruction을 기반으로 노동의 깊은 부분입니다. 복잡한 엔지니어링 임무는 여러 개의 분리된 subtasks에서 잘 분리되고 가장 적합한 모델을 일치시킬 수 있습니다。

예를 들어, 코드를 작성하는 작업은 저렴한 모델을 사용하여 프레임과 샘플 코드를 먼저 작성하고 코어 로직을 비싼 모델에 손으로 만들 수 있습니다. 각 제출에는 깨끗하고 집중된 컨텍스트와 결과가 더 정확하고 비용이 많이 들지 않습니다。

당신은 꽃을 필요로하지 않았다, 토큰

이 사이트는 좀 더 나은 접속환경을 제공해 드리고자 쿠키를 사용합니다. 이 사이트를 사용함에 있어 당신은 모든 쿠키사용을 동의하는 것입니다

가장 큰 저축은 알고리즘의 최적화가 아니지만 결정의 분리. 우리는 AL-AI 답변을 찾는 데 사용되지만, 우리는 많은 시나리오에서 그것을 잊고, MOSQUITOES 싸움에 큰 비싼 모델과 같은 것입니다。

예를 들어, AI를 사용하여 메일을 자동으로 처리 할 수 있습니다. 독립적 인 작업으로 모든 전자 메일을 사용하여 이해, 정렬, 응답 및 토큰이 많이 소비합니다. 하지만 30 초를 걸릴 경우 inbox를 살펴 보며, 분명히 AI에 의해 처리되지 않는 메일을 수동으로 sift, 그 다음 나머지를 AI로 손, 비용은 즉시 작은 분수로 감소. 인간적인 판단은 장애물이 아니지만 최고의 필터입니다。

텔레그래프 시대의 사람들은 더 많은 단어를 보내는 비용을 알고, 그래서 그들은 그것을 돌릴 것입니다, 이는 자원의 선구자입니다. AI 시대의 사실은 실제로 AI가 더 많은 것을 말하는 비용을 얻는 방법을 알고있을 때, 당신은 자연적으로 그것이 가치가 있지 않다는 사실의 돌봐해야 할 것입니다, 작업은 최고 모델 또는 싼 모형을 필요로하고, 상황은 쓸모가 없습니다。

이것은 가장 비용 절약 수용량입니다. 이 작업을 수행하는 가장 똑똑한 방법은 AI가 사람들을 대체 할 수 없다는 것입니다. 그러나 AI와 사람들을 가장 잘 할 수 있도록하십시오. 토큰에 대한이 감도가 조건부 반사로 내부화되면, 당신은 정말 arithmetic의 마스터에 비공개에서 변경됩니다。

QQlink

無加密後門,無妥協。基於區塊鏈技術的去中心化社交和金融平台,讓私隱與自由回歸用戶手中。

© 2024 QQlink 研發團隊. 保留所有權利.