<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:webfeeds="http://webfeeds.org/rss/1.0">
    <channel>
        <title><![CDATA[Arize Korea]]></title>
        <description><![CDATA[Arize Korea]]></description>
        <link>https://www.arizekorea.com</link>
        <generator>Bettermode RSS Generator</generator>
        <lastBuildDate>Sun, 17 May 2026 11:43:50 GMT</lastBuildDate>
        <atom:link href="https://www.arizekorea.com/rss/feed" rel="self" type="application/rss+xml"/>
        <pubDate>Sun, 17 May 2026 11:43:50 GMT</pubDate>
        <copyright><![CDATA[2026 Arize Korea]]></copyright>
        <language><![CDATA[ko]]></language>
        <ttl>60</ttl>
        <webfeeds:icon></webfeeds:icon>
        <webfeeds:related layout="card" target="browser"/>
        <item>
            <title><![CDATA[Arize AI, LG유플러스 AI 컨택센터에 AX 플랫폼 공급]]></title>
            <description><![CDATA[AI 옵저버빌리티 및 평가 플랫폼 기업 Arize AI는 LG유플러스가 국내 최대 규모의 AI 기반 고객 서비스 운영 시스템인 AI 컨택센터(AICC)의 LLMOps 고도화를 위해 Arize AX 플랫폼을 도입했다고 발표했다.

Arize AX는 LG유플러스의 완전한 폐쇄망 환경에 Self-hosted로 구축돼, 엄격한 엔터프라이즈 보안 요건을 충족하면서 전국...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/arize-ax-on-lg-uplus-aicc-zEERZB4SSwcBaf3</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/arize-ax-on-lg-uplus-aicc-zEERZB4SSwcBaf3</guid>
            <category><![CDATA[AICC]]></category>
            <category><![CDATA[Arize AI]]></category>
            <category><![CDATA[LG Uplus]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Mon, 27 Apr 2026 12:53:15 GMT</pubDate>
            <content:encoded><![CDATA[<p>AI 옵저버빌리티 및 평가 플랫폼 기업 Arize AI는 LG유플러스가 국내 최대 규모의 AI 기반 고객 서비스 운영 시스템인 AI 컨택센터(AICC)의 LLMOps 고도화를 위해 Arize AX 플랫폼을 도입했다고 발표했다.</p><p>Arize AX는 LG유플러스의 완전한 폐쇄망 환경에 Self-hosted로 구축돼, 엄격한 엔터프라이즈 보안 요건을 충족하면서 전국 17개 고객센터와 4000명 이상의 상담사에게 프로덕션 규모의 AI 옵저버빌리티를 제공하고 있다.</p><p><strong>사업 주요 사항</strong></p><p>· Private LLM 등을 연동한 하이브리드 클라우드 환경에서 다수의 모델을 운영, 모든 데이터 처리는 사내 보안 가이드라인을 준수 · Arize AX는 외부 인터넷 접속이 전면 차단된 LG유플러스의 폐쇄망 내에서 구동돼, 상담 데이터가 외부 모델 학습에 활용될 리스크를 물리적으로 제거 · 현재 활용 중인 플랫폼 기능: LLM 트레이싱 및 모니터링, 프롬프트 최적화 및 실험, 자동화된 평가 파이프라인 · SSO 연동, 프로젝트별 접근 권한 제어, 비상용/상용 환경의 완격한 격리를 통해 내부 데이터 접근 보안 강화 · 도입 성과: 개발 리드타임 단축, 장애 대응 시간 단축, 인프라 관리 부담 경감</p><p><strong>의미</strong></p><p>Arize AX는 LG유플러스가 전국 규모의 실제 고객 상담을 처리하는 복잡한 AI 시스템을 운영하고, 모니터링하고, 지속적으로 개선하기 위해 활용하는 핵심 인프라이다. 이번 구축 사례는 엔터프라이즈 AI 옵저버빌리티가 더 이상 선택이 아닌 필수임을 보여주며, 가장 엄격한 보안 요건을 갖춘 조직도 기능의 타협 없이 최신 LLMOps를 운영할 수 있음을 입증한다.</p><p>Arize AI 이승민 APAC 기술총괄은 “LG유플러스의 AICC는 폐쇄망 환경에서 다수의 LLM을 연동해 운영하는 고도화된 AI 상담 시스템이다. Arize AX는 이러한 엔터프라이즈 환경의 복합적 요구사항을 충족하면서, LLM 트레이싱부터 평가 파이프라인까지 엔드투엔드 옵저버빌리티를 지원하고 있다”고 밝혔다.</p><p>LG유플러스 정진수 AICC DevOps Lead는 “Arize는 LLMOps를 넘어선 AI Platform이라고 생각한다. 폐쇄망 환경에서도 엔터프라이즈 수준의 보안과 운영 효율성을 모두 충족하면서, 데이터셋·프롬프트 관리부터 모델 평가까지 하나의 플랫폼에서 해결할 수 있는 점이 핵심이었다”고 말했다.</p><p><strong>LG유플러스 AICC 소개</strong></p><p>LG유플러스의 AI 컨택센터(AICC)는 전국 17개 고객센터와 4000명 이상의 상담사, 9000명 이상의 매장 직원을 지원하는 대규모 AI 고객 서비스 플랫폼이다. 상담코드 자동 추천, 상담 요약, 실시간 지식 추천, AI 기반 상담 평가, 생성형 AI 기반 Agentic콜봇 서비스 등을 통해 제조, 유통, 서비스, 의료, 교육 등 다양한 업종에 완결형 AI 상담을 제공한다.</p><p><strong>어라이즈코리아 소개</strong></p><p>Arize AI는 신뢰할 수 있고 투명한 인공지능(AI)의 구현을 목표로 설립된 기업이다. AI가 점점 많아지고, 복잡해지고 강력해짐에 따라, 이를 어떻게 감시하고 평가하며 개선할 것인지는 모든 AI 팀이 직면한 핵심 과제가 됐다. Arize AI는 이러한 문제를 해결하기 위해 AI 모델의 관측 가능성(observability)과 평가, 가드레일과 같은 AI 거버넌스 기능을 제공한다.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Arize Skills를 활용하여 스스로 정확도를 높이는 RAG 시스템을 구축하기]]></title>
            <description><![CDATA[RAG 반복 개발의 고통

프로덕션 RAG 시스템을 구축해보신 분이라면 이 사이클을 잘 아실 겁니다. 파라미터 조정, 재인덱싱, 재평가라는 사이클을 무수히 많이 반복하죠. 이 과정은 며칠에서 몇주가 걸리기도 합니다.

이 글은 제가 지난 3월 29일 진행된 🦞 Ralphthon Seoul #2에서 만든 실제 프로젝트 self-rag [https://github.com/seanlee10/self-rag] 에 Ralph Loop과 ...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/self-improving-rag-with-arize-skills-81oAMZXCuUdEjC2</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/self-improving-rag-with-arize-skills-81oAMZXCuUdEjC2</guid>
            <category><![CDATA[Arize CLI]]></category>
            <category><![CDATA[Arize Skills]]></category>
            <category><![CDATA[Claude Code]]></category>
            <category><![CDATA[랄프]]></category>
            <category><![CDATA[Ralph]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Tue, 31 Mar 2026 04:57:36 GMT</pubDate>
            <content:encoded><![CDATA[<h2 class="text-xl" data-toc-id="ee3230d2-29b6-4a25-99c3-ce919055ea88" id="ee3230d2-29b6-4a25-99c3-ce919055ea88">RAG 반복 개발의 고통</h2><p>프로덕션 RAG 시스템을 구축해보신 분이라면 이 사이클을 잘 아실 겁니다. 파라미터 조정, 재인덱싱, 재평가라는 사이클을 무수히 많이 반복하죠. 이 과정은 며칠에서 몇주가 걸리기도 합니다.</p><p>이 글은 제가 지난 3월 29일 진행된 <strong>​🦞 Ralphthon Seoul #2</strong>에서 만든 실제 프로젝트 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://github.com/seanlee10/self-rag">self-rag</a> 에 Ralph Loop과 Arize Skills를 결합해 Claude Code에게 모든 것을 맡겼을 때 무슨 일이 생겼는지에 대한 이야기입니다.</p><p>8시간 동안 Loop를 돌린 결과는 다음과 같습니다. </p><figure data-align="center" data-size="best-fit" data-id="qHUNYPHaBoG4owamlCRdi" data-version="v2" data-type="image"><img data-id="qHUNYPHaBoG4owamlCRdi" src="https://tribe-s3-production.imgix.net/qHUNYPHaBoG4owamlCRdi?auto=compress,format"></figure><p>Recall@5가 39%에서 75%로 36% 상승했습니다. 그리고 루프를 닫으며 클코는 여기서 더 올리는 방법들도 가이드해주었습니다. 아마 2-3일 더 돌려놓으면 90%도 꿈은 아닐 거 같다는 생각이 들었습니다. (그래서 지금 돌리고 있습니다.) </p><p>Loop가 도는 동안 Claude Code는 인간의 개입없이 Arize에서 진행된 평가 결과에 기반해서 자동으로 LangGraph 에이전트 코드와 Index 기법을 수정했습니다. </p><hr><hr><h2 class="text-xl" data-toc-id="0bcbb3d5-b03f-45d1-a893-64fb039290ac" id="0bcbb3d5-b03f-45d1-a893-64fb039290ac">CLAUDE.md의 자기개선 루프</h2><p>Ralph의 각 이터레이션이 하는 일은 CLAUDE.md로 제어됩니다. 핵심은 세 가지입니다: 매 스토리 완료 후 평가, 실패 분석 후 동적 백로그 확장, 그리고 지표 기반 종료 조건.</p><pre class="language-markdown"><code class="language-markdown">## 자기개선 루프 (CRITICAL)

스토리를 passes: true로 표시한 후 반드시:

1. scripts/run_experiment.py로 Arize 실험 실행 (recall@1, @5, @10 측정)
2. 실패 패턴 분석: 어떤 쿼리가 실패하는가? 인덱스 문제인가, 에이전트 문제인가?
3. Recall@5 &lt; 80%이면, 실패를 분석하고 prd.json에 새 스토리 추가:
   - 인덱스 개선 (청킹, 매핑, 임베딩) → index/ 디렉토리
   - 에이전트 개선 (쿼리 확장, 리랭킹, 스코어링) → agent/ 디렉토리

## Stop Condition

- Recall@5 &gt; 80% AND 새 스토리 없음 → &lt;promise&gt;COMPLETE&lt;/promise&gt; 출력 후 종료
- Recall@5 ≤ 80% OR 새 스토리 추가됨 → 다음 이터레이션 계속
</code></pre><p>이 설계 덕분에 Ralph는 한 번 실행하면 목표 달성까지 자율적으로 동작합니다. eval 결과에서 새 스토리를 생성해 PRD를 키우기 때문입니다. 각 이터레이션은 <strong>구현 → 평가 → 반성 → 백로그 확장 → 반복</strong>의 사이클을 돕니다.</p><p>참고로, Ralph는 모든 의미 있는 코드 변경을 즉시 커밋합니다. 여러 변경 사항을 하나의 큰 커밋으로 묶지 않습니다 — 이터레이션 간에 작업이 손실되지 않도록 하기 위함입니다.</p><hr><h2 class="text-xl" data-toc-id="c0723870-75f6-4c7b-924a-fe55ca50e594" id="c0723870-75f6-4c7b-924a-fe55ca50e594">Blue/Green 인덱스 패턴</h2><p>RAG 시스템을 반복 개선할 때 가장 까다로운 부분은 인덱스 변경이 파괴적이라는 것입니다 — <code>index/index.py</code>를 실행하면 인덱스가 완전히 재생성됩니다. 부분 재인덱싱은 <code>scripts/reindex.py</code>로 가능하지만(누락된 패시지만 추가), 청킹 전략이나 매핑이 바뀌면 전체 재인덱싱이 필요합니다.</p><p>OpenSearch의 Blue/Green 배포 패턴으로 해결했습니다:</p><ul><li><p>에이전트는 항상 <code>self-rag</code> alias를 통해 쿼리합니다 — 하드코딩된 인덱스명은 절대 사용하지 않습니다</p></li><li><p>Ralph가 인덱싱 전략을 개선하면 새 버전 인덱스를 생성합니다 (<code>self_ralph_v1</code>, <code>self_ralph_v2</code>, ...)</p></li><li><p>새 인덱스에서 <code>scripts/run_experiment.py</code>로 Arize 실험을 실행한 후, 성능이 개선됐을 때만 alias를 원자적으로 교체합니다</p></li><li><p>이전 인덱스는 즉시 롤백 가능하도록 유지합니다</p></li></ul><pre class="language-python"><code class="language-python">client.indices.update_aliases(body={
    "actions": [
        {"remove": {"index": "*",              "alias": "ralphton"}},
        {"add":    {"index": "self_ralph_v12", "alias": "ralphton"}}
    ]
})
</code></pre><p>아침이 됐을 때 Ralph는 11개의 인덱스 버전을 만들어뒀습니다. 여러 개가 베이스라인보다 나빴고 프로모션되지 않았습니다. Alias는 항상 가장 성능이 좋은 버전을 가리켰습니다.</p><hr><h2 class="text-xl" data-toc-id="6fc66e3d-16b1-4c5e-8095-00a415b297b6" id="6fc66e3d-16b1-4c5e-8095-00a415b297b6">아키텍처: 두 노드의 단순함이 핵심입니다</h2><p>LangGraph 에이전트는 의도적으로 단순하게 설계하였습니다. 그래프 자체는 <code>StateGraph(State)</code>에 단 두 개의 노드만 존재합니다.</p><ol><li><p><strong>retrieve</strong> — <code>OpenSearchRetriever</code>가 <code>text-embedding-3-large</code> (1024 dims)로 async kNN 검색을 수행하고, top-k 문서를 반환합니다</p></li><li><p><strong>call_model</strong> — 검색된 컨텍스트를 RAG 프롬프트에 넣고, GPT-4o-mini가 답변을 생성합니다</p></li></ol><p>State는 <code>messages</code> (대화)와 <code>docs</code> (검색된 문서)를 가진 dataclass입니다.</p><p>이 단순한 구조가 자기개선 루프에 이상적이었습니다 — Ralph가 인덱스 쪽(<code>index/</code>)과 에이전트 쪽(<code>agent/</code>)을 독립적으로 개선할 수 있었기 때문입니다. 청킹 전략을 바꾸려면 <code>index/</code> 디렉토리만, 쿼리 확장이나 리랭킹을 추가하려면 <code>agent/</code> 디렉토리만 수정하면 됩니다.</p><p>트레이싱은 <code>src/agent/instrumentation.py</code>에서 <code>arize.otel.register</code> + <code>LangChainInstrumentor</code>를 통해 Arize OTel 트레이싱을 등록합니다. 이것이 매 실험의 트레이스를 Arize로 자동 전송하는 기반이 됩니다.</p><hr><h2 class="text-xl" data-toc-id="3f20aa57-d3e7-4357-b736-f621e0a5c729" id="3f20aa57-d3e7-4357-b736-f621e0a5c729">Arize가 결정적인 차이를 만든 이유</h2><h3 class="text-lg" data-toc-id="7e74d415-e6b3-4546-8066-7038c439a4c4" id="7e74d415-e6b3-4546-8066-7038c439a4c4">제로 설정 평가를 위한 Arize Skills</h3><p>Arize는 최근 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://github.com/Arize-ai/arize-skills">Arize Skills</a>를 출시했습니다 — 코딩 에이전트에게 Arize 워크플로우에 대한 네이티브 지식을 부여하는 사전 구축된 명령어 세트입니다. Claude Code 내에서 아래 명령어로 한번에 설치할 수 있습니다:</p><pre class="language-bash"><code class="language-bash">claude /plugin marketplace add Arize-ai/arize-skills
claude /plugin install arize-skills@Arize-ai-arize-skills
</code></pre><p>이를 통해 Claude Code는 평가의 생성과 평가결과를 skill을 통해 접근할 수 있게 됩니다. 그리고 이렇게 Arize Skills로 읽어온 최신 평가 결과는 Claude Code에 의해 리뷰되어 새로운 개선점을 도출하는 데에 사용됩니다. </p><h3 class="text-lg" data-toc-id="24be2b81-5e09-4d3a-85f8-2d7e72157d93" id="24be2b81-5e09-4d3a-85f8-2d7e72157d93">17번의 이터레이션에서 일관된 실험</h3><p>모든 평가가 동일한 Arize 실험 러너 — <code>recall_at_1</code>, <code>recall_at_5</code>, <code>recall_at_10</code> — 를 사용했기 때문에, 17개의 실험 전체에서 결과가 직접 비교 가능했습니다. 코드베이스가 변해도 평가 드리프트가 없었습니다.</p><p>Arize UI에서 진행 상황이 실시간으로 보였습니다:</p><pre><code>39% ██░░░░░░░░░░░░░ 베이스라인
52% ██████░░░░░░░░░ 400자 청크 재인덱싱     (+13pp)
56% ████████░░░░░░░ RRF/BM25 가중치 튜닝   (+4pp)
58% ████████░░░░░░░ HyDE 멀티 시그널       (+2pp)
63% ██████████░░░░░ 멀티쿼리 변형           (+5pp)
75% ███████████████ 2단계 GPT-4o 리랭킹    (+12pp)
80% ████████████████ 목표
</code></pre><p>각 실험은 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://huggingface.co/datasets/isaacus/legal-rag-bench">legal-rag-bench</a> 데이터셋에 결과로 기록됐습니다. 75%에 도달했을 때 어떤 변화가 어떤 점프를 이끌었는지 정확히 추적할 수 있었습니다.</p><hr><h2 class="text-xl" data-toc-id="ba952f4d-5937-49c1-867b-54f51822595a" id="ba952f4d-5937-49c1-867b-54f51822595a">Ralph가 실제로 발견한 것들</h2><p>최종 점수보다 더 가치 있는 결과는 각 이터레이션이 쌓아올린 <code>progress.txt</code>의 인사이트들이었습니다.</p><p><strong>성능 향상에 가장 큰 임팩트를 주었던 개선 사항은 청크 사이즈였습니다.</strong> 1000 토큰 → 400 토큰으로의 청크 전환만으로 +13pp 개선을 얻었습니다. 2번째 루프 실행 중에 발견됐고, 이후 모든 것의 기반이 됐습니다. 법률 문서 특성상 조항 단위의 짧은 청크가 훨씬 효과적이었습니다.</p><p><strong>HyDE는 두 방향으로 작동합니다.</strong> 가상 문서 임베딩을 kNN 신호(+2pp)와 BM25 쿼리 신호(+4pp) 양쪽으로 활용하는 것은 예상치 못한 발견이었습니다. BM25 신호가 오히려 더 강했습니다 — 법률 용어의 정확한 키워드 매칭이 중요하기 때문으로 보입니다.</p><p><strong>신호 희석은 실재했습니다.</strong> RRF 신호를 ~6개 이상 추가했더니 성능이 저하되는 것을 확인하였습니다. Ralph는 10개 이상의 신호로 한 번 실험했다가 recall이 떨어지는 것을 확인했습니다. 이후 이터레이션은 보수적이었습니다.</p><p><strong>Cross-encoder 리랭킹은 기대 이하였습니다.</strong> ms-marco 모델은 상당한 레이턴시와 함께 +1pp만 추가했습니다. 두 번의 실험 후 사용을 중단했습니다.</p><p><strong>LLM 리랭킹이 cross-encoder를 앞섰습니다.</strong> 도메인 특화 GPT-4o-mini 프롬프트가 범용 모델을 큰 차이로 앞섰습니다. 이미 <code>call_model</code> 노드에서 GPT-4o-mini를 사용하고 있었기에 리랭킹에도 같은 모델을 활용한 것은 자연스러운 선택이었습니다.</p><p>이 중 어느 것도 원래 PRD에 없었습니다. Ralph가 모두 발견하고, <code>progress.txt</code>에 문서화하고, 다음 스토리를 더 똑똑하게 생성하는 데 활용했습니다.</p><hr><h2 class="text-xl" data-toc-id="eb93f912-c193-4c45-917e-221e8f1bf5df" id="eb93f912-c193-4c45-917e-221e8f1bf5df">직접 재현하기</h2><h3 class="text-lg" data-toc-id="ce520fbb-6b7c-4445-9603-a419301e14f9" id="ce520fbb-6b7c-4445-9603-a419301e14f9">사전 준비</h3><p>시작하기 전에 다음이 필요합니다:</p><ul><li><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/"><strong>Arize</strong></a><strong> 계정</strong> — arize.com에서 가입합니다 (무료 티어 사용 가능)</p></li><li><p><strong>Python 3.10+</strong> 및 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://docs.astral.sh/uv/">uv</a></p></li><li><p><strong>OpenSearch</strong> 인스턴스 (kNN 활성화)</p></li><li><p><strong>API 키</strong> — OpenAI, Arize, OpenSearch 인증 정보</p></li><li><p><strong>Claude Code</strong> — <code>npm install -g @anthropic-ai/claude-code</code>로 설치</p></li></ul><p>Arize AX CLI와 Skills도 설치합니다:</p><pre class="language-bash"><code class="language-bash"># Arize AX CLI 설치 및 설정
pip install arize-ax-cli
ax config set --space-id &lt;your-space-id&gt; --api-key &lt;your-arize-api-key&gt;

# Claude Code에 Arize Skills 플러그인 설치
claude /plugin marketplace add Arize-ai/arize-skills
claude /plugin install arize-skills@Arize-ai-arize-skills
</code></pre><h3 class="text-lg" data-toc-id="ac70de3b-8c51-4b9c-8b14-9353c583eede" id="ac70de3b-8c51-4b9c-8b14-9353c583eede">Step 1: 레포 클론 및 의존성 설치</h3><pre class="language-bash"><code class="language-bash">git clone &lt;repo-url&gt; &amp;&amp; cd self-rag

# Agent 의존성
cd agent &amp;&amp; uv sync --dev &amp;&amp; cd ..

# Index pipeline 의존성
cd index &amp;&amp; uv sync --dev &amp;&amp; cd ..
</code></pre><p>환경 변수를 설정합니다:</p><pre class="language-bash"><code class="language-bash">cp agent/.env.example agent/.env
cp index/.env.example index/.env
# 두 .env 파일에 OpenAI, Arize, OpenSearch 인증 정보 입력
</code></pre><h3 class="text-lg" data-toc-id="6a295551-91a9-4649-9917-1cae15489023" id="6a295551-91a9-4649-9917-1cae15489023">Step 2: QA 데이터셋 업로드 및 인덱싱</h3><p>Claude Code 안에서 arize-skills를 사용해 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://huggingface.co/datasets/isaacus/legal-rag-bench">isaacus/legal-rag-bench</a>의 <code>qa</code> 스플릿을 Arize 데이터셋으로 업로드합니다. Arize UI 내에서 직접 CSV 업로드를 해도 괜찮습니다. 이 데이터셋이 자기개선 루프의 평가 기준이 됩니다.</p><p>그 다음 코퍼스를 인덱싱합니다:</p><pre class="language-bash"><code class="language-bash">cd index &amp;&amp; python index.py
</code></pre><h3 class="text-lg" data-toc-id="d5efd89f-cc0f-4fcc-86a2-130f810f2b09" id="d5efd89f-cc0f-4fcc-86a2-130f810f2b09">Step 3: Ralph 시작</h3><p>터미널에서 Claude Code를 열고 "run ralph"라고 입력합니다:</p><pre class="language-bash"><code class="language-bash">claude
&gt; run ralph
</code></pre><p>이게 전부입니다. Ralph가 LangGraph Agent를 실행하고, 스토리를 실행하고, Arize 실험을 돌리고, 실패를 분석하고, 새 스토리를 추가하고, Recall@5 &gt; 80%를 달성할 때까지 계속합니다. 자러 가시면 됩니다.</p><hr><h2 class="text-xl" data-toc-id="2e6e82ac-0d46-47a6-a1c8-771e1e20461a" id="2e6e82ac-0d46-47a6-a1c8-771e1e20461a">핵심 교훈</h2><p><strong>지표 기반 Stop Condition이 자율성의 열쇠입니다.</strong> Ralph가 "Recall@5 &gt; 80% 달성"을 종료 조건으로 삼기 때문에, eval 결과에서 새 스토리를 생성하고 실험과 개선을 반복합니다. 한 번 실행하면 목표 달성까지 자율적으로 돌아갑니다.</p><p><strong>동적 PRD 확장이 핵심 메커니즘입니다.</strong> 자기개선 루프는 마법이 아닙니다 — eval → 분석 → <code>prd.json</code>에 추가 → 계속. 이 단순한 추가가 유한한 태스크 목록을 적응형 개선 엔진으로 바꿉니다.</p><p><strong>Arize Skills가 평가를 쉽게 만듭니다.</strong> 일관되고 제로 설정 평가 없이는 하룻밤에 17개의 실험을 실행할 수 없습니다. Skills 덕분에 Ralph는 계측 방법이나 평가 방법을 알아낼 필요 없이 <code>scripts/run_experiment.py</code>를 호출하면 됩니다.</p><p><strong>Blue/Green 인덱싱이 두려움 없는 실험을 가능하게 합니다.</strong> Alias 기반 롤백 덕분에 Ralph는 공격적인 인덱스 변경을 시도할 수 있었습니다. 여러 실험이 오히려 나빴지만 아무것도 망가지지 않았습니다.</p><p><strong>모노레포 구조가 독립적 개선을 가능하게 합니다.</strong> <code>index/</code>와 <code>agent/</code>가 분리되어 있어 Ralph가 인덱싱 전략과 에이전트 로직을 독립적으로 실험할 수 있었습니다. 한쪽을 바꿔도 다른 쪽이 깨지지 않습니다.</p><p><strong>progress.txt가 코드보다 더 가치 있습니다.</strong> 문서화된 인사이트 — 무엇이 작동했고, 무엇이 안 됐고, 왜인지 — 가 17번의 이터레이션에 걸쳐 누적되며 하룻밤 실행의 가장 중요한 산출물이 됐습니다.</p><hr><h2 class="text-xl" data-toc-id="8f85bdd6-e744-4e27-ae3b-e0dbb9e5edc1" id="8f85bdd6-e744-4e27-ae3b-e0dbb9e5edc1">다음 단계</h2><p>목표까지 5pp가 남아있습니다. Ralph의 최종 분석은 두 가지 개선점을 식별했습니다: </p><ul><li><p>도메인 특화 법률 임베딩이 필요한 ~15개 쿼리</p></li><li><p>추가 리랭킹으로 해결 가능한 ~10개 근접 미스.</p></li></ul><p>다음 실행은 이번이 멈춘 곳에서 시작될 것입니다 — 같은 <code>progress.txt</code>, 같은 인덱스 버전, Ralph가 식별한 특정 실패 패턴을 타겟으로 한 새 스토리들. <code>scripts/reindex.py</code>로 누락된 패시지만 추가 인덱싱하는 것도 다음 이터레이션의 유력한 전략입니다.</p><p>이 실험이 의미하는 바는 간단합니다. </p><blockquote><p><br>"Ground Truth만 있으면 어떤 시스템이든 최적화할 수 있다."<br></p></blockquote><p>이것은 올해초부터 이야기된 Closing the loop을 작은 단위에서 수행해본 것입니다. 인간의 개입이 전혀 없이 스스로 개선되는 에이전트.. 올해는 바로 그 시작이라는 것을 이번 실험을 계기로 직접 체감할 수 있었습니다. 실험에 사용한 코드를 공개하였으니 직접 수행해보시고 여러분의 데이터셋으로 마음껏 실험하고 결과를 공유해주시기 바랍니다.</p><p>Github: <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://github.com/seanlee10/self-rag">https://github.com/seanlee10/self-rag</a></p><div data-embed-url="https://github.com/seanlee10/self-rag" data-id="Fyue8U4bUTrdXisMUCmdR" data-type="embed"></div><p>감사합니다.</p><hr>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[CLAUDE.md: 프롬프트 러닝으로 Claude Code를 최적화하며 배운 모범 사례]]></title>
            <description><![CDATA[이번 글 [https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/]은 Arize AI의 AI 엔지니어인 Priyan Jindal이 작성한 프롬프트 러닝을 활용해 Claude Code를 최적화하고 성능을 11% 향상시킨 내용을 소개합니다.

Priyan은 시스템 프롬프트를 통해 강력한 코딩 에이전트인 Cline을 최적화한 경험 [https://arize.com/blog/optimizing-coding-agent-rules-claude-md-agents-md-clinerules-cursor-rules-for-improved-accuracy/]을 소개한 바 있는데 이를 더 많은 사람들이 범용적으로 사용하고 있는 Claude Code에 이...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-kKSFpl7T04uG2t7</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-kKSFpl7T04uG2t7</guid>
            <dc:creator><![CDATA[Sangyoul Jin]]></dc:creator>
            <pubDate>Sat, 22 Nov 2025 14:18:28 GMT</pubDate>
            <content:encoded><![CDATA[<p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/">이번 글</a>은 Arize AI의 AI 엔지니어인 Priyan Jindal이 작성한 프롬프트 러닝을 활용해 Claude Code를 최적화하고 성능을 11% 향상시킨 내용을 소개합니다.</p><p>Priyan은 시스템 프롬프트를 통해 강력한 코딩 에이전트인 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/optimizing-coding-agent-rules-claude-md-agents-md-clinerules-cursor-rules-for-improved-accuracy/">Cline을 최적화한 경험</a>을 소개한 바 있는데 이를 더 많은 사람들이 범용적으로 사용하고 있는 <strong>Claude Code</strong>에 이를 적용해 보았고, 놀라운 결과를 공유 했습니다.</p><figure data-align="center" data-size="best-fit" data-id="jNzyPMPO8CnMwwg853RZD" data-version="v2" data-type="image"><img data-id="jNzyPMPO8CnMwwg853RZD" src="https://tribe-s3-production.imgix.net/jNzyPMPO8CnMwwg853RZD?auto=compress,format"></figure><p>Claude Code는 세계 최고의 코딩 에이전트 중 하나로 평가받습니다. 이는 현재 최첨단 코딩 모델로 꼽히는 <strong>Claude Sonnet 3.7(원문은 4-5로 표기되었으나 최신 문맥 반영)</strong>을 사용합니다. 실제로 코드 생성 능력을 평가하는 인기 벤치마크인 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://www.swebench.com/">SWE bench</a>의 리더보드를 지배하고 있는 것을 볼 수 있습니다.</p><p>이러한 코딩 에이전트의 성능을 최대한 끌어내려는 개발자로서 사용할 수 있는 워크플로 중 하나는 <strong>Claude Code의 시스템 프롬프트를 편집</strong>하는 것입니다. CLI를 사용하는 경우, <code>Claude Code CLI</code>의 <code>--append-system-prompt</code> 태그를 통해 이 기능에 접근할 수 있습니다.</p><figure data-align="center" data-size="best-fit" data-id="vTzNWbxEm1wl0U5DvNO19" data-version="v2" data-type="image"><img data-id="vTzNWbxEm1wl0U5DvNO19" src="https://tribe-s3-production.imgix.net/vTzNWbxEm1wl0U5DvNO19?auto=compress,format"></figure><p></p><p>또한 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://claude.md/">CLAUDE.md</a> 파일을 통해 사용자 정의 규칙을 지정할 수도 있습니다. Claude Code에 대한 모범 사례 가이드에서는 다음과 같이 설명합니다:</p><pre><code>"CLAUDE.md는 Claude가 대화를 시작할 때 자동으로 컨텍스트로 가져오는 특수 파일입니다. 따라서 다음 내용을 문서화하기에 이상적인 장소입니다:
- 자주 사용하는 bash 명령어
- 핵심 파일 및 유틸리티 함수
- 코드 스타일 가이드라인
- 테스트 지침
- 리포지토리 에티켓 (예: 브랜치 명명법, merge vs rebase 등)
- 개발 환경 설정 (예: pyenv 사용법, 작동하는 컴파일러)
- 프로젝트에 특화된 예상치 못한 동작이나 경고
- 기타 Claude가 기억하기를 바라는 정보"</code></pre><p>이를 통해 Claude Code 호출 시 사용자 정의 지침을 추가할 수 있어, 생성되는 코드에 대해 강력한 제어권을 가질 수 있습니다.</p><p>이 블로그 포스트에서는 <strong>프롬프트 러닝(Prompt Learning)</strong>을 사용하여 SWE Bench에서 Claude Code의 결과를 향상시키는 <strong>최적의 사용자 정의 지침 세트</strong>를 생성한 방법을 보여드립니다. 도구, 아키텍처, LLM 파인 튜닝(Fine-tuning)을 변경하지 않고, 오직 시스템 프롬프트에 최적의 지침을 추가하는 것만으로 Claude Code를 개선한 방법을 소개합니다.</p><h2 class="text-xl" data-toc-id="2890af1e-ccff-433c-a224-0969c84ead94" id="2890af1e-ccff-433c-a224-0969c84ead94">프롬프트 러닝(Prompt Learning) 개요</h2><p>프롬프트 러닝은 강화 학습(Reinforcement Learning)에서 영감을 받은 프롬프트 최적화 접근 방식입니다. 이는 쿼리 데이터셋에 대한 에이전트의 수행 능력에 기반하여 프롬프트를 통해 에이전트를 최적화하는 것을 목표로 합니다.</p><figure data-align="center" data-size="best-fit" data-id="qM4JKhqGBBpsoK28Sf362" data-version="v2" data-type="image"><img data-id="qM4JKhqGBBpsoK28Sf362" src="https://tribe-s3-production.imgix.net/qM4JKhqGBBpsoK28Sf362?auto=compress,format"></figure><p></p><p>강화 학습과 프롬프트 러닝 모두 출력 생성 및 그에 대한 평가를 기반으로 하는 피드백 루프를 사용하지만, 프롬프트 러닝은 모델의 가중치(weights) 대신 <strong>에이전트의 시스템 프롬프트를 업데이트</strong>하는 데 중점을 둡니다.</p><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://en.wikipedia.org/wiki/Proximal_policy_optimization">PPO</a>, <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://en.wikipedia.org/wiki/Q-learning">Q-learning</a>, <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://en.wikipedia.org/wiki/Gradient_descent">gradient descent</a> 같은 가중치 업데이트 알고리즘 대신, 프롬프트 러닝은 메타 프롬프팅(Meta-prompting)을 사용하여 프롬프트를 개선합니다. 메타 프롬프팅은 LLM에게 '특정 프롬프트가 얼마나 잘 수행되었는지에 대한 데이터'를 바탕으로 프롬프트를 최적화하도록 요청하는 단순한 작업입니다.</p><p>프롬프트 러닝이 정말 특별한 이유는 단순히 스칼라(점수) 보상 대신 <strong>LLM 평가(LLM Evals)</strong>를 메타 프롬프트의 피드백으로 사용한다는 점입니다. 모든 롤아웃(에이전트의 출력 생성)마다, 우리는 LLM에게 출력이 <strong>왜</strong> 맞거나 틀렸는지, 그리고 <strong>어디서</strong> 개선이 이루어질 수 있는지 묻습니다. 이를 통해 메타 프롬프트 LLM은 에이전트의 시스템 프롬프트를 최적화하는 방법에 대해 정보에 입각한 가이드된 결정을 내릴 수 있습니다.</p><p><em>(프롬프트 러닝에 대한 더 자세한 설명은 </em><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/prompt-learning-using-english-feedback-to-optimize-llm-systems/">[이 블로그]</a><em>를 참조하세요. LLM 평가와 메타 프롬프팅에 대해 깊이 다룹니다.)</em></p><h2 class="text-xl" data-toc-id="ea4e5562-27f7-4d1d-b340-7e44b663d7f0" id="ea4e5562-27f7-4d1d-b340-7e44b663d7f0">SWE Bench Lite 정보</h2><p><strong>SWE Bench Lite</strong>는 코딩 모델/에이전트를 평가하는 데 사용되는 인기 있는 벤치마크입니다. 이는 Django, matplotlib 등 인기 있는 오픈 소스 Python 리포지토리의 실제 Github 이슈 300개로 구성됩니다. 코딩 모델/에이전트가 이 Github 이슈들을 해결할 수 있는지 테스트합니다.</p><p>우리는 SWE Bench Lite의 데이터를 사용하여 최적화 도구(optimizer)를 훈련하고, 최적화의 각 반복(iteration) 단계에서 Claude Code를 평가했습니다.</p><h2 class="text-xl" data-toc-id="6220ab30-f825-41a5-a9c0-1b9180deea67" id="6220ab30-f825-41a5-a9c0-1b9180deea67">Claude Code에 프롬프트 러닝 적용하기</h2><p>Claude Code를 최적화하기 위해 프롬프트 러닝을 적용한 정확한 방법은 다음과 같습니다.</p><figure data-align="center" data-size="best-fit" data-id="SFmoA3I4uukb16MWJ8hC2" data-version="v2" data-type="image"><img data-id="SFmoA3I4uukb16MWJ8hC2" src="https://tribe-s3-production.imgix.net/SFmoA3I4uukb16MWJ8hC2?auto=compress,format"></figure><p></p><h3 class="text-lg" data-toc-id="60035ab4-cc24-4bff-845b-514eff7f6bb2" id="60035ab4-cc24-4bff-845b-514eff7f6bb2">1단계: 훈련/테스트 데이터 분할 (Train/Test Split)</h3><p>먼저 SWE Bench Lite를 훈련 세트와 테스트 세트로 나눕니다. 약 절반은 최적화 도구 훈련(및 새 프롬프트 생성)에 사용하고, 나머지 절반은 프롬프트 최적화가 더 나은 솔루션으로 이어지는지 테스트하는 데 사용합니다.</p><p><strong>중요:</strong> Claude Code의 경우, 두 가지 다른 방식의 훈련/테스트 분할을 사용했습니다.</p><p><strong><u>1. 리포지토리별 분할 (Split by Repo)</u></strong></p><p>6개의 Python 리포지토리에서 나온 모든 이슈를 훈련용으로, 나머지 6개 리포지토리의 모든 이슈를 테스트용으로 선택했습니다. 이 분할은 Claude Code의 <strong>일반적인 코딩 능력</strong>을 향상시킬 수 있는지 확인하는 데 도움이 됩니다. 훈련용 6개 리포지토리에만 특화된 규칙이 테스트용 리포지토리에는 도움이 되지 않도록 하여 <strong>과적합(Overfitting)</strong>을 방지합니다.</p><ul><li><p><strong>Train Repos:</strong></p></li></ul><pre class="language-python"><code class="language-python">'django/django',
'pytest-dev/pytest',
'sphinx-doc/sphinx',
'astropy/astropy',
'psf/requests',
'pylint-dev/pylint'</code></pre><ul><li><p><strong>Test Repos:</strong></p></li></ul><pre class="language-python"><code class="language-python">'sympy/sympy',
'matplotlib/matplotlib',
'scikit-learn/scikit learn',
'pydata/xarray',
'mwaskom/seaborn',
'pallets/flask'</code></pre><p><strong><u>2. 리포지토리 내 분할</u></strong></p><p>이 분할에서는 SWE Bench Lite의 모든 Django 이슈(114개)를 선택하여 타임스탬프를 기준으로 훈련 및 테스트 세트로 나눴습니다. 동기는 간단합니다. 개발자가 매일 같은 코드베이스에서 작업한다면, Claude Code가 <strong>해당 리포지토리</strong>에서 더 잘 작동하기를 원할 것입니다. 과거 이슈와 정답 솔루션으로 시스템 프롬프트를 훈련함으로써, Claude Code에게 해당 코드베이스가 어떻게 진화하는지(패턴, 컨벤션, 흔한 실수 등)에 대한 맥락을 제공하여 동일한 리포지토리의 미래 이슈에 대해 더 강력한 패치를 생성하도록 합니다.</p><blockquote><p><strong>기억해 둘 점:</strong> 두 분할은 서로 다른 것을 테스트합니다. <strong>분할 1</strong>은 Python 리포지토리를 기준으로 나누어 Claude Code의 <strong>일반적인 코딩 능력</strong> 향상 여부를 테스트합니다. <strong>분할 2</strong>는 더 실용적인 개발자 워크플로를 테스트합니다. 즉, Claude Code 호출을 사용자의 리포지토리에 국한(localize)시키고, 같은 코드베이스의 이전 이슈를 기반으로 <strong>해당 코드베이스의 문제를 더 잘 해결하도록 훈련</strong>할 수 있는지 확인합니다.</p></blockquote><h3 class="text-lg" data-toc-id="ba10e9d4-9cb5-483f-aa6a-39278b6f438e" id="ba10e9d4-9cb5-483f-aa6a-39278b6f438e">2단계: 훈련 세트에서 Claude Code 실행</h3><p>두 번째로, 훈련 예제에 대해 Claude Code를 실행하여 훈련 세트의 각 Github 이슈에 대한 솔루션 패치를 생성합니다. 이 패치들은 이슈 내용을 프롬프트로 하여 리포지토리에서 Claude Code를 실행하고, <code>git diff</code>를 실행하여 리포지토리에 변경된 모든 사항을 추출하여 형성됩니다. 우리는 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/docs/phoenix/datasets-and-experiments/overview-datasets">Phoenix experiments</a>를 사용하여 데이터셋에 대해 Claude Code를 쉽게 실행하고 평가(4단계)를 설정했습니다.</p><h3 class="text-lg" data-toc-id="005d1cb1-4a9a-4dc8-be3f-73b6cd38a079" id="005d1cb1-4a9a-4dc8-be3f-73b6cd38a079">3단계: 단위 테스트(Unit Tests) 실행</h3><p>Claude Code가 생성한 모든 솔루션 패치에 대해, SWE Bench가 제공하는 단위 테스트를 실행하여 솔루션의 통과/실패 여부를 결정합니다. 이를 통해 점수를 생성합니다(통과 1, 실패 0).</p><h3 class="text-lg" data-toc-id="42a6af7a-55dd-431a-8739-afa13458a1cd" id="42a6af7a-55dd-431a-8739-afa13458a1cd">4단계: LLM 피드백 생성</h3><p>최적화를 가속하기 위해, LLM에게 Claude Code의 솔루션을 평가하도록 요청하여 LLM 피드백을 생성합니다.</p><figure data-align="center" data-size="best-fit" data-id="ovBfmiqZ4NiESTLTs95Br" data-version="v2" data-type="image"><img data-id="ovBfmiqZ4NiESTLTs95Br" src="https://tribe-s3-production.imgix.net/ovBfmiqZ4NiESTLTs95Br?auto=compress,format"></figure><p><em>(참고용: </em><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://github.com/Arize-ai/prompt-learning/blob/main/coding_agent_rules_optimization/evals.py">평가 프롬프트</a><em>)</em></p><p>단계인 메타 프롬프팅이 더 나은 프롬프트를 생성하도록 안내합니다. 단순히 메타 프롬프트에게 "6개 테스트 통과, 4개 실패"라고 말하는 대신, 다음과 같은 질문에 답하는 강력한 피드백을 생성합니다:</p><ul><li><p>솔루션이 개념적 수준에서 옳았는가/틀렸는가?</p></li><li><p>테스트가 통과/실패한 이유는 무엇인가? 특정 뉘앙스 때문인가, 아니면 전체 솔루션이 맞거나 틀려서인가?</p></li><li><p>(Claude Code가 틀렸다면) 왜 올바른 접근 방식 대신 이 접근 방식을 취했는가?</p></li></ul><p>요청하신 블로그 게시물의 한국어 번역본입니다. 기술적인 문맥을 살려 자연스럽게 번역했습니다.</p><hr><p></p><p>CLAUDE.md: 프롬프트 러닝으로 Claude Code를 최적화하며 배운 모범 사례</p><p></p><p>프롬프트 러닝(우리의 프롬프트 최적화 기능)에 대한 지난 포스팅에서, 우리는 시스템 프롬프트를 통해 강력한 코딩 에이전트인 Cline을 최적화했습니다. 이번에는 여러분 중 더 많은 분에게 익숙할 <strong>Claude Code</strong>에 이를 적용해 보았고, 놀라운 결과를 확인했습니다.</p><p>Claude Code는 세계 최고의 코딩 에이전트 중 하나로 평가받습니다. 이는 현재 최첨단 코딩 모델로 꼽히는 <strong>Claude Sonnet 3.7(원문은 4-5로 표기되었으나 최신 문맥 반영)</strong>을 사용합니다. 실제로 코드 생성 능력을 평가하는 인기 벤치마크인 SWE bench의 리더보드를 지배하고 있는 것을 볼 수 있습니다.</p><p>이러한 코딩 에이전트의 성능을 최대한 끌어내려는 개발자로서 사용할 수 있는 워크플로 중 하나는 <strong>Claude Code의 시스템 프롬프트를 편집</strong>하는 것입니다. CLI를 사용하는 경우, <code>Claude Code CLI</code>의 <code>--append-system-prompt</code> 태그를 통해 이 기능에 접근할 수 있습니다.</p><p>또한 <code>CLAUDE.md</code> 파일을 통해 사용자 정의 규칙을 지정할 수도 있습니다. Claude Code에 대한 모범 사례 가이드에서는 다음과 같이 설명합니다:</p><blockquote><p>"CLAUDE.md는 Claude가 대화를 시작할 때 자동으로 컨텍스트로 가져오는 특수 파일입니다. 따라서 다음 내용을 문서화하기에 이상적인 장소입니다:</p><ul><li><p>자주 사용하는 bash 명령어</p></li><li><p>핵심 파일 및 유틸리티 함수</p></li><li><p>코드 스타일 가이드라인</p></li><li><p>테스트 지침</p></li><li><p>리포지토리 에티켓 (예: 브랜치 명명법, merge vs rebase 등)</p></li><li><p>개발 환경 설정 (예: pyenv 사용법, 작동하는 컴파일러)</p></li><li><p>프로젝트에 특화된 예상치 못한 동작이나 경고</p></li><li><p>기타 Claude가 기억하기를 바라는 정보"</p></li></ul></blockquote><p>이를 통해 Claude Code 호출 시 사용자 정의 지침을 추가할 수 있어, 생성되는 코드에 대해 강력한 제어권을 가질 수 있습니다.</p><p>이 블로그 포스트에서는 <strong>프롬프트 러닝(Prompt Learning)</strong>을 사용하여 SWE Bench에서 Claude Code의 결과를 향상시키는 <strong>최적의 사용자 정의 지침 세트</strong>를 생성한 방법을 보여드립니다. 도구, 아키텍처, LLM 파인 튜닝(Fine-tuning)을 변경하지 않고, 오직 시스템 프롬프트에 최적의 지침을 추가하는 것만으로 Claude Code를 개선한 방법을 소개합니다.</p><p></p><h2 class="text-xl" data-toc-id="8bde4db9-b1e8-4d73-8541-d3545d02262c" id="8bde4db9-b1e8-4d73-8541-d3545d02262c">프롬프트 러닝(Prompt Learning) 개요</h2><p></p><p>프롬프트 러닝은 강화 학습(Reinforcement Learning)에서 영감을 받은 프롬프트 최적화 접근 방식입니다. 이는 쿼리 데이터셋에 대한 에이전트의 수행 능력에 기반하여 프롬프트를 통해 에이전트를 최적화하는 것을 목표로 합니다.</p><p>강화 학습과 프롬프트 러닝 모두 출력 생성 및 그에 대한 평가를 기반으로 하는 피드백 루프를 사용하지만, 프롬프트 러닝은 모델의 가중치(weights) 대신 <strong>에이전트의 시스템 프롬프트를 업데이트</strong>하는 데 중점을 둡니다.</p><p>PPO, Q-learning, 경사 하강법(gradient descent) 같은 가중치 업데이트 알고리즘 대신, 프롬프트 러닝은 <strong>메타 프롬프팅(Meta-prompting)</strong>을 사용하여 프롬프트를 개선합니다. 메타 프롬프팅은 LLM에게 '특정 프롬프트가 얼마나 잘 수행되었는지에 대한 데이터'를 바탕으로 프롬프트를 최적화하도록 요청하는 단순한 작업입니다.</p><p>프롬프트 러닝이 정말 특별한 이유는 단순히 스칼라(점수) 보상 대신 <strong>LLM 평가(LLM Evals)</strong>를 메타 프롬프트의 피드백으로 사용한다는 점입니다. 모든 롤아웃(에이전트의 출력 생성)마다, 우리는 LLM에게 출력이 <strong>왜</strong> 맞거나 틀렸는지, 그리고 <strong>어디서</strong> 개선이 이루어질 수 있는지 묻습니다. 이를 통해 메타 프롬프트 LLM은 에이전트의 시스템 프롬프트를 최적화하는 방법에 대해 정보에 입각한 가이드된 결정을 내릴 수 있습니다.</p><p><em>(프롬프트 러닝에 대한 더 자세한 설명은 [이 블로그]를 참조하세요. LLM 평가와 메타 프롬프팅에 대해 깊이 다룹니다.)</em></p><p></p><h2 class="text-xl" data-toc-id="156fed75-2310-418c-beb1-bdf1403d656a" id="156fed75-2310-418c-beb1-bdf1403d656a">SWE Bench Lite 정보 (선택한 벤치마크)</h2><p></p><p>참고로 SWE bench 논문과 SWE Bench 리더보드를 확인해 보세요. <strong>SWE Bench Lite</strong>는 코딩 모델/에이전트를 평가하는 데 사용되는 인기 있는 벤치마크입니다. 이는 Django, matplotlib 등 인기 있는 오픈 소스 Python 리포지토리의 실제 Github 이슈 300개로 구성됩니다. 코딩 모델/에이전트가 이 Github 이슈들을 해결할 수 있는지 테스트합니다.</p><p>우리는 SWE Bench Lite의 데이터를 사용하여 최적화 도구(optimizer)를 훈련하고, 최적화의 각 반복(iteration) 단계에서 Claude Code를 평가했습니다.</p><p></p><h2 class="text-xl" data-toc-id="f5b6af3a-793e-4d7a-98a5-09db465cebc6" id="f5b6af3a-793e-4d7a-98a5-09db465cebc6">Claude Code에 프롬프트 러닝 적용하기</h2><p></p><p>Claude Code를 최적화하기 위해 프롬프트 러닝을 적용한 정확한 방법은 다음과 같습니다.</p><p></p><h3 class="text-lg" data-toc-id="bb3c9315-45a7-4590-8397-d6750d2f0dc0" id="bb3c9315-45a7-4590-8397-d6750d2f0dc0">1단계: 훈련/테스트 데이터 분할 (Train/Test Split)</h3><p></p><p>먼저 SWE Bench Lite를 훈련 세트와 테스트 세트로 나눕니다. 약 절반은 최적화 도구 훈련(및 새 프롬프트 생성)에 사용하고, 나머지 절반은 프롬프트 최적화가 더 나은 솔루션으로 이어지는지 테스트하는 데 사용합니다.</p><p><strong>중요:</strong> Claude Code의 경우, 두 가지 다른 방식의 훈련/테스트 분할을 사용했습니다.</p><p><strong>1. 리포지토리별 분할 (Split by Repo)</strong> 6개의 Python 리포지토리에서 나온 모든 이슈를 훈련용으로, 나머지 6개 리포지토리의 모든 이슈를 테스트용으로 선택했습니다. 이 분할은 Claude Code의 <strong>일반적인 코딩 능력</strong>을 향상시킬 수 있는지 확인하는 데 도움이 됩니다. 훈련용 6개 리포지토리에만 특화된 규칙이 테스트용 리포지토리에는 도움이 되지 않도록 하여 <strong>과적합(Overfitting)</strong>을 방지합니다.</p><ul><li><p><strong>Train Repos:</strong> <code>'django/django','pytest-dev/pytest','sphinx-doc/sphinx','astropy/astropy','psf/requests','pylint-dev/pylint'</code></p></li><li><p><strong>Test Repos:</strong> <code>'sympy/sympy','matplotlib/matplotlib','scikit-learn/scikit-learn','pydata/xarray','mwaskom/seaborn','pallets/flask'</code></p></li></ul><p><strong>2. 리포지토리 내 분할 (Split within Repo)</strong> 이 분할에서는 SWE Bench Lite의 모든 Django 이슈(114개)를 선택하여 타임스탬프를 기준으로 훈련 및 테스트 세트로 나눴습니다. 동기는 간단합니다. 개발자가 매일 같은 코드베이스에서 작업한다면, Claude Code가 <strong>해당 리포지토리</strong>에서 더 잘 작동하기를 원할 것입니다. 과거 이슈와 정답 솔루션으로 시스템 프롬프트를 훈련함으로써, Claude Code에게 해당 코드베이스가 어떻게 진화하는지(패턴, 컨벤션, 흔한 실수 등)에 대한 맥락을 제공하여 동일한 리포지토리의 미래 이슈에 대해 더 강력한 패치를 생성하도록 합니다.</p><blockquote><p><strong>기억해 둘 점:</strong> 두 분할은 서로 다른 것을 테스트합니다. <strong>분할 1</strong>은 Python 리포지토리를 기준으로 나누어 Claude Code의 <strong>일반적인 코딩 능력</strong> 향상 여부를 테스트합니다. <strong>분할 2</strong>는 더 실용적인 개발자 워크플로를 테스트합니다. 즉, Claude Code 호출을 사용자의 리포지토리에 국한(localize)시키고, 같은 코드베이스의 이전 이슈를 기반으로 <strong>해당 코드베이스의 문제를 더 잘 해결하도록 훈련</strong>할 수 있는지 확인합니다.</p></blockquote><p></p><h3 class="text-lg" data-toc-id="f2286015-d72b-4295-bfee-fe833c165ee5" id="f2286015-d72b-4295-bfee-fe833c165ee5">2단계: 훈련 세트에서 Claude Code 실행</h3><p></p><p>두 번째로, 훈련 예제에 대해 Claude Code를 실행하여 훈련 세트의 각 Github 이슈에 대한 솔루션 패치를 생성합니다. 이 패치들은 이슈 내용을 프롬프트로 하여 리포지토리에서 Claude Code를 실행하고, <code>git diff</code>를 실행하여 리포지토리에 변경된 모든 사항을 추출하여 형성됩니다. 우리는 Phoenix experiments를 사용하여 데이터셋에 대해 Claude Code를 쉽게 실행하고 평가(4단계)를 설정했습니다.</p><p></p><h3 class="text-lg" data-toc-id="b3d43562-3852-4e1b-8a58-0ed37e51d05b" id="b3d43562-3852-4e1b-8a58-0ed37e51d05b">3단계: 단위 테스트(Unit Tests) 실행</h3><p></p><p>Claude Code가 생성한 모든 솔루션 패치에 대해, SWE Bench가 제공하는 단위 테스트를 실행하여 솔루션의 통과/실패 여부를 결정합니다. 이를 통해 점수를 생성합니다(통과 1, 실패 0).</p><p></p><h3 class="text-lg" data-toc-id="dfe3dd82-d827-48e9-8f82-8ffd59e64eee" id="dfe3dd82-d827-48e9-8f82-8ffd59e64eee">4단계: LLM 피드백 생성</h3><p></p><p>최적화를 가속하기 위해, LLM에게 Claude Code의 솔루션을 평가하도록 요청하여 LLM 피드백을 생성합니다.</p><p><em>(참고용: 전체 평가자(evaluator) 프롬프트)</em> 이 단계는 최적화를 위한 더 풍부한 피드백을 제공합니다. 이는 다음 단계인 메타 프롬프팅이 더 나은 프롬프트를 생성하도록 안내합니다. 단순히 메타 프롬프트에게 "6개 테스트 통과, 4개 실패"라고 말하는 대신, 다음과 같은 질문에 답하는 강력한 피드백을 생성합니다:</p><ul><li><p>솔루션이 개념적 수준에서 옳았는가/틀렸는가?</p></li><li><p>테스트가 통과/실패한 이유는 무엇인가? 특정 뉘앙스 때문인가, 아니면 전체 솔루션이 맞거나 틀려서인가?</p></li><li><p>(Claude Code가 틀렸다면) 왜 올바른 접근 방식 대신 이 접근 방식을 취했는가?</p></li></ul><h3 class="text-lg" data-toc-id="dd33c457-37d0-41ef-af3d-1402d760a0e5" id="dd33c457-37d0-41ef-af3d-1402d760a0e5">5단계: 메타 프롬프팅으로 시스템 프롬프트 최적화</h3><p>훈련 데이터가 완전히 구축되면, 이제 이것을 메타 프롬프트에 입력하여 <strong>최적화된 프롬프트 생성을 요청</strong>할 수 있습니다.</p><figure data-align="center" data-size="best-fit" data-id="6cWvSCoGugSK9iSGDpQHg" data-version="v2" data-type="image"><img data-id="6cWvSCoGugSK9iSGDpQHg" src="https://tribe-s3-production.imgix.net/6cWvSCoGugSK9iSGDpQHg?auto=compress,format"></figure><p>여기서 "규칙(rules)"이란 <code>CLAUDE.md</code>나 <code>--append-system-prompt</code>를 통해 제공하는 모든 것을 의미합니다.</p><h3 class="text-lg" data-toc-id="ca0a06f8-0bd1-4bf2-8330-588348b0391e" id="ca0a06f8-0bd1-4bf2-8330-588348b0391e">6단계: 새로운 규칙으로 테스트 세트에서 Claude Code 실행</h3><p>루프의 마지막 단계는 메타 프롬프팅 단계 후 구축된 최적화된 규칙을 사용하여 테스트 데이터에서 Claude Code를 테스트하는 것입니다. 이를 통해 Claude Code가 개선되었는지, 얼마나 개선되었는지 알 수 있습니다.</p><h3 class="text-lg" data-toc-id="cafb254a-dd3a-4d77-b9cf-a98c8fa883a3" id="cafb254a-dd3a-4d77-b9cf-a98c8fa883a3">7단계: 반복</h3><p>SWE Bench 정확도가 정체되거나 최대치에 도달할 때까지, 또는 API 비용이 특정 임계값에 도달할 때까지 이 루프를 반복합니다.</p><h2 class="text-xl" data-toc-id="c15a60d7-4474-4fe6-ba63-b7f95233a91e" id="c15a60d7-4474-4fe6-ba63-b7f95233a91e">결과</h2><p>다음은 두 가지 훈련/테스트 분할에 대한 결과입니다. 리포지토리별(By-Repo) 분할과 리포지토리 내(In-Repo) 분할의 중요한 차이를 놓치셨다면 위 내용을 다시 참조해 주세요.</p><figure data-align="center" data-size="best-fit" data-id="xDV1ME3jonCiIXb1Wpvg5" data-version="v2" data-type="image"><img data-id="xDV1ME3jonCiIXb1Wpvg5" src="https://tribe-s3-production.imgix.net/xDV1ME3jonCiIXb1Wpvg5?auto=compress,format"></figure><p></p><h3 class="text-lg" data-toc-id="4e47d28a-e80b-43b1-9929-ad8495510b57" id="4e47d28a-e80b-43b1-9929-ad8495510b57"><strong>By-Repo</strong></h3><p>우리는 Claude Code의 테스트 정확도를 <strong>5.19%</strong> 높일 수 있었습니다. 리포지토리별 분할 결과는 훈련 세트에 없는 리포지토리의 이슈가 테스트 세트에 포함되어 있으므로, Claude Code의 <strong>일반적인 코드 생성 능력(codegen abilities)을 향상</strong>시켰음을 나타냅니다.</p><h3 class="text-lg" data-toc-id="0557e031-6e8b-4d2e-92e6-c7285ad089bf" id="0557e031-6e8b-4d2e-92e6-c7285ad089bf"><strong>In-Repo</strong></h3><p>리포지토리 내 테스트에서는 훨씬 더 큰 폭인 <strong>+10.87%</strong>의 향상을 보였습니다. 이는 동일한 Python 리포지토리의 이슈를 사용하여 Claude Code를 훈련하고 테스트했기 때문에 예상된 결과입니다. 이 결과를 보고 <strong>과적합(Overfitting)</strong>이라고 생각할 수 있습니다. 하지만 이 작업의 목표는 Claude Code의 프롬프트를 테스트와 동일한 리포지토리에 맞춰 훈련하는 것이었습니다. 앞서 언급했듯이, 이는 개발자의 워크플로를 모방합니다. 이 경우 특정 리포지토리에 대한 "과적합"은 사실 <strong>목표</strong>입니다. 이를 통해 Claude Code가 생성하는 코드를 여러분이 작업하는 특정 코드베이스에 맞춤화할 수 있기 때문입니다!</p><h2 class="text-xl" data-toc-id="0749ef38-b028-432e-bbfd-cd6637ca133d" id="0749ef38-b028-432e-bbfd-cd6637ca133d">최종 요점</h2><ol><li><p><strong>프롬프트 최적화는 최상위 코딩 에이전트도 의미 있게 개선합니다.</strong> Claude Code는 이미 가장 강력한 코딩 모델(Claude Sonnet)을 사용하지만, 시스템 프롬프트만 최적화했음에도 일반 코딩 성능에서 5% 이상의 향상을 얻었고, 단일 리포지토리에 특화했을 때는 더 큰 향상을 보였습니다.</p></li><li><p><strong>리포지토리별 최적화는 실용적인 초능력입니다.</strong> 매일 같은 코드베이스에서 작업한다면, 프롬프트 러닝을 통해 Claude Code가 해당 리포지토리의 패턴, 규범, 특징, 컨벤션을 내면화하도록 훈련하여 <strong>약 +11% 더 나은 코드</strong>를 작성하게 할 수 있습니다! 벤치마킹 관점에서는 "과적합"처럼 보이는 것이 실제 업무 흐름에서는 강점이 됩니다.</p></li><li><p><strong>성능 향상을 위해 모델, 도구, 아키텍처를 수정할 필요가 없습니다.</strong> 모든 개선은 파인 튜닝, 재교육, 맞춤형 인프라 없이 오직 Claude Code에 제공되는 <strong>지침(instructions)</strong>을 정제함으로써 이루어졌습니다. 실제 성능 데이터에 기반한 더 나은 프롬프트만 있으면 됩니다.</p></li><li><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/llm-evaluation/">LLM 평가</a><strong>는 스칼라 보상보다 풍부한 학습 신호를 제공합니다.</strong> 패치가 왜 성공했거나 실패했는지 설명함으로써, LLM 피드백은 메타 최적화 도구가 단순히 무작위로 프롬프트 변형을 탐색하는 대신 실제 실패 원인(API 오해, 에지 케이스 누락, 리포지토리 구조에 대한 잘못된 가정 등)을 목표로 삼도록 합니다.</p></li><li><p><strong>메타 프롬프팅은 시스템 프롬프트를 노출하는 모든 에이전트에 확장 가능합니다.</strong> Claude Code, Cline, 맞춤형 코딩 에이전트, RAG 어시스턴트, 사내 개발자 도구 등 편집 가능한 프롬프트가 있는 모든 것은 이 정확한 루프를 사용하여 최적화할 수 있습니다.</p></li></ol><h2 class="text-xl" data-toc-id="e3596574-33cb-4d3f-8e36-1efd7ec1674e" id="e3596574-33cb-4d3f-8e36-1efd7ec1674e">이 글이 우리에게 전달하는 3가지 인사이트</h2><p>이 기술 블로그는 단순히 "Claude 성능을 올리는 법"을 넘어, 앞으로 우리가 AI와 어떻게 일해야 하는지에 대한 중요한 단서를 제공합니다.</p><h3 class="text-lg" data-toc-id="5dcef31e-62b5-4046-8534-0c1ed703f9a6" id="5dcef31e-62b5-4046-8534-0c1ed703f9a6">1. '파인 튜닝(Fine-tuning)'의 시대에서 '컨텍스트 엔지니어링'의 시대로</h3><p>과거에는 특정 도메인에 강한 AI를 만들기 위해 모델 자체를 재학습(Fine-tuning)시키는 것이 정석처럼 여겨졌습니다. 하지만 이는 비용이 많이 들고 업데이트가 느립니다.</p><p>이 실험은 **"잘 깎은 시스템 프롬프트(<code>CLAUDE.md</code>) 하나가 어설픈 파인 튜닝보다 낫다"**는 것을 증명합니다. 이를 **'Soft Fine-tuning'**이라고 부를 수 있겠습니다.</p><ul><li><p><strong>전통적 방식:</strong> 모델의 가중치(뇌 구조)를 바꿈 → 비쌈, 어려움.</p></li><li><p><strong>새로운 방식:</strong> 모델에게 주는 지침(업무 매뉴얼)을 정교화함 → 싸고, 빠르고, 즉시 수정 가능.</p></li></ul><p>이제 개발 팀의 경쟁력은 "얼마나 좋은 모델을 쓰느냐"보다 **"우리 팀의 암묵지(Implicit Knowledge)를 얼마나 정교하게 텍스트화하여 AI에게 주입하느냐"**에 달려 있습니다.</p><h3 class="text-lg" data-toc-id="a786cca1-f587-49c8-978e-3916692f57a0" id="a786cca1-f587-49c8-978e-3916692f57a0">2. '과적합(Overfitting)'은 더 이상 나쁜 단어가 아니다</h3><p>머신러닝 개론에서 과적합은 피해야 할 1순위 대상입니다. 하지만 **Agentic Workflow(AI 에이전트 업무)**에서는 정반대입니다.</p><p>우리는 '모든 코드를 잘 짜는 제너럴한 개발자'가 필요한 게 아니라, **'우리 회사의 레거시 코드와 독특한 아키텍처를 꿰뚫고 있는 동료'**가 필요합니다.</p><ul><li><p>원문의 **+10.87% 성능 향상(In-Repo Split)**은 AI를 우리 프로젝트에 '과적합' 시켰을 때 비로소 **진정한 팀원(Team Member)**으로서 기능한다는 것을 보여줍니다.</p></li><li><p>즉, AI에게 범용적인 베스트 프랙티스를 강요하기보다, **"우리 팀은 이렇게 해"**라는 고집스러운 컨벤션을 학습시키는 것이 생산성에 훨씬 유리합니다.</p></li></ul><h3 class="text-lg" data-toc-id="777be370-88a9-4f77-bea3-61202d5cad65" id="777be370-88a9-4f77-bea3-61202d5cad65">3. '수동 프롬프트 러닝'을 실무에 적용하는 법</h3><p>원문에서는 자동화된 파이프라인을 구축했지만, 당장 개인이 이를 따라 하긴 어렵습니다. 하지만 **'수동 프롬프트 러닝 루프'**는 당장 오늘부터 실천할 수 있습니다.</p><p><strong>[실무 적용 3단계 루프]</strong></p><ol><li><p><strong>실패 기록:</strong> Claude가 코드를 잘못 짰거나, 스타일을 어겼을 때 화내고 끝내지 마세요.</p></li><li><p><strong>원인 분석(LLM Eval):</strong> Claude에게 되물어보세요. <em>"네가 왜 틀렸다고 생각하니? 이걸 맞추려면 </em><code>CLAUDE.md</code><em>에 어떤 문구가 추가되었어야 했을까?"</em></p></li><li><p><strong>규칙 업데이트:</strong> 그 답변을 정제하여 <code>CLAUDE.md</code>에 한 줄을 추가합니다.</p></li></ol><p>이 과정을 통해 여러분의 <code>CLAUDE.md</code>는 팀의 실패 경험을 먹고 자라는 **'살아있는 문서(Living Documentation)'**가 됩니다. 이것이 쌓이면 시니어 개발자의 코드 리뷰 시간을 획기적으로 줄여줄 것입니다.</p><hr><p>추가로 궁금한 점이 있거나, 이 내용을 바탕으로 귀하의 프로젝트에 <code>CLAUDE.md</code>를 설정하는 방법이 궁금하다면 언제든지 물어봐 주세요.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[안전한 AI 구축의 핵심: Microsoft 레드팀과 Arize AX를 활용한 자동화된 프롬프트 최적화]]></title>
            <description><![CDATA[안전한 AI 서비스 구축은 모든 기업들의 과제이자 가장 어려운 영역중 하나로 여겨지고 있습니다. 운영 환경에 배포되는 모든 모델은 시스템을 악용해 오작동을 유발하려는 적대적 사용자들의 끊임없는 공격에 노출되어 있기에, 안전한 AI 구축은 선택이 아닌, 필수 생존 조건이 된 셈인데요.

프로덕션 환경에 배포되는 모든 모델은 시스템을 악용하여 나쁜 행동을 유도하려...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/anjeonhan-ai-gucugyi-haegsim-microsoft-redeutimgwa-arize-axreul-hwalyonghan-sHoUTihusHqtG5e</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/anjeonhan-ai-gucugyi-haegsim-microsoft-redeutimgwa-arize-axreul-hwalyonghan-sHoUTihusHqtG5e</guid>
            <dc:creator><![CDATA[Sangyoul Jin]]></dc:creator>
            <pubDate>Thu, 20 Nov 2025 18:41:07 GMT</pubDate>
            <content:encoded><![CDATA[<p>안전한 AI 서비스 구축은 모든 기업들의 과제이자 가장 어려운 영역중 하나로 여겨지고 있습니다. 운영 환경에 배포되는 모든 모델은 시스템을 악용해 오작동을 유발하려는 적대적 사용자들의 끊임없는 공격에 노출되어 있기에, 안전한 AI 구축은 선택이 아닌, <strong>필수 생존 조건</strong>이 된 셈인데요.</p><p>프로덕션 환경에 배포되는 모든 모델은 시스템을 악용하여 나쁜 행동을 유도하려는 적대적 사용자들의 공격에 직면해 있는데,&nbsp;<strong>Microsoft Foundry</strong>는 시스템의 약점을 끊임없이 탐색하는 '<strong>지칠 줄 모르는 공격자</strong>' 역할을 수행하는&nbsp;<strong>자동화된 레드팀 </strong>기능을 제공합니다.</p><p>하지만 취약점을 찾아내는 것은 절반의 성공일 뿐이고, 어떤 공격이 시스템을 뚫었는지 정확히 파악하고, 이러한 회귀(regressions)에 대한 피드백을 수집하여 시스템을 지속적으로 개선해야 합니다.</p><p>Microsoft의 레드팀은 Arize AX를 활용해 에이전트 요청에 <strong>관측성</strong>과 <strong>평가</strong>를 더함으로써, 모든 공격 시도에 대한 완전한 가시성을 확보 하고, 공격 패턴을 추적, 방어 체계의 약점을 식별하며, 보안 개선 사항을 정량적으로 측정할 수 있는 환경을 마련 했습니다. 무엇보다 중요한 점은,&nbsp;<strong>방어에 실패한 사례를 훈련 데이터로 전환하여 시스템을 자동으로 강화</strong>할 수 있다는 것입니다.</p><p>이번에 소개해드리는 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/how-to-improve-ai-agent-security-with-microsofts-ai-red-teaming-agent-in-microsoft-foundry/">내용(블로그)</a>은 Microsoft가 Arize AX로 자기 개선 루프(Self-improving loop)를 활용해 레드팀 프로브(Probe)에서 발견된 공격 벡터를 Arize AX의&nbsp;<strong>자동화된 프롬프트 최적화</strong>에 적용하는 실제 예시를 단계별로 소개합니다.</p><p>주요 단계는 다음과 같습니다:</p><ol><li><p><strong>Microsoft Foundry</strong>의 AI 레드팀 에이전트로 에이전트 대상 프로브 실행</p></li><li><p><strong>Arize AX</strong>가 프로브로부터 트레이스 및 관측 데이터 수집</p></li><li><p><strong>Arize AX</strong>&nbsp;온라인 평가가 회귀(Regressions)를 플래그하고 상세 설명 제공</p></li><li><p>회귀 데이터를 사람이 라벨링(Annotation)하여 골든 데이터셋 생성</p></li><li><p>골든 데이터셋을 <strong>Arize AX 프롬프트 최적화 도구(Prompt Optimizer)</strong>에 입력하여 프롬프트 반복 개선</p></li><li><p>개선 전후의 프롬프트 성능 검증</p></li><li><p>변경 사항 배포 및 루프 반복</p></li></ol><figure data-align="center" data-size="best-fit" data-id="Y4X6RhuxY5sxhR8dg7UpW" data-version="v2" data-type="image"><img data-id="Y4X6RhuxY5sxhR8dg7UpW" src="https://tribe-s3-production.imgix.net/Y4X6RhuxY5sxhR8dg7UpW?auto=compress,format"></figure><h2 class="text-xl" data-toc-id="c9c4ee11-2cbb-488a-96cc-5c91635d7a6b" id="c9c4ee11-2cbb-488a-96cc-5c91635d7a6b">AI 레드팀(Red Teaming)에 대한 이해</h2><p>AI를 위한 레드팀 활동은 전통적인 보안 테스트와는 다릅니다. 코드의 취약점이나 네트워크 약점을 찾는 대신, AI 시스템이 조작되어 유해한 콘텐츠를 생성하는지 테스트합니다.</p><p><br><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://learn.microsoft.com/en-us/azure/ai-foundry/concepts/ai-red-teaming-agent?view=foundry-classic&amp;source=arize">Microsoft의 Azure 레드팀 에이전트</a>는 숙련된 적대자처럼 작동합니다. 안전 조치를 우회하도록 설계된 정교한 공격 프롬프트를 생성합니다. Azure AI Red Teaming은 Microsoft의 책임감 있는 AI(Responsible AI) 프레임워크의 핵심 구성 요소로, 편향성, 독성, 잘못된 정보, 탈옥(Jailbreaking)과 같은 취약점을 테스트하기 위해 적대적 공격을 시뮬레이션하도록 설계되었습니다. 이 에이전트는 다음과 같은&nbsp;<a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://learn.microsoft.com/en-us/azure/ai-foundry/concepts/ai-red-teaming-agent?view=foundry-classic&amp;source=recommendations#supported-risk-categories">위험 카테고리</a>에서 포괄적인 위험 커버리지를 제공합니다.</p><ul><li><p><strong>폭력(Violence):</strong>&nbsp;모델이 해를 가하는 지침을 제공하도록 유도</p></li><li><p><strong>성적 콘텐츠(Sexual content):</strong>&nbsp;부적절한 성적 자료 생성 시도</p></li><li><p><strong>혐오 및 불공정성(Hate and unfairness):</strong>&nbsp;편향되거나 차별적인 응답 유도</p></li><li><p><strong>자해(Self-harm):</strong>&nbsp;모델이 위험한 조언을 제공하는지 테스트</p></li></ul><p>각 카테고리에는 여러&nbsp;<a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://learn.microsoft.com/en-us/azure/ai-foundry/concepts/ai-red-teaming-agent?view=foundry-classic&amp;source=recommendations#supported-attack-strategies">공격 전략</a>이 적용됩니다. 에이전트는 단순히 뻔한 공격만 시도하는 것이 아니라, 역할극(role-playing), 가상 시나리오, 점진적 확산(gradual escalation)과 같은 기법을 사용하여 미묘한 취약점까지 찾아냅니다. 이러한 강점 덕분에 Azure AI Red Teaming은 규정 준수와 윤리적 배포를 우선시하는 조직에게 더 안전하고 신뢰할 수 있는 AI 시스템을 구축하는 데 있어 선도적인 역할을 합니다.</p><h2 class="text-xl" data-toc-id="198a8df4-1b41-4a0b-8d9d-923f75bb824a" id="198a8df4-1b41-4a0b-8d9d-923f75bb824a">실습 가이드: 레드팀 기반의 자동화된 프롬프트 최적화</h2><p>이제 실제 예제를 통해 레드팀 에이전트 스캔을 추적하고, 평가(Evals)를 실행하여 라벨/피드백을 생성한 뒤, 이를 훈련/테스트 데이터셋으로 만들어 프롬프트 최적화 도구에 공급함으로써 원래 프롬프트를 자동으로 튜닝하여 보안성을 높이는 방법을 살펴보겠습니다.<br><strong>의도된 워크플로우:</strong></p><ol><li><p>공격을 시뮬레이션하기 위해 LLM(OpenAI)을 대상으로&nbsp;<strong>Azure AI 레드팀 스캔</strong>&nbsp;실행</p></li><li><p>공격 및 LLM 응답에 대한&nbsp;<strong>트레이스 캡처</strong></p></li><li><p>평가(Evals)를 실행하여 피드백 데이터 생성 →&nbsp;<strong>회귀 데이터셋 자동 생성</strong>&nbsp;(평가 실패 사례)</p></li><li><p>회귀 데이터를 사용하여 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/prompt-learning-using-english-feedback-to-optimize-llm-systems/">프롬프트 학습</a>을 통해 프롬프트 최적화</p></li><li><p>Arize AX에서 업데이트된 프롬프트의&nbsp;<strong>결과 정량화</strong></p></li></ol><p>이 예제 에서는 4가지 기본 위험 카테고리(폭력, 성적 콘텐츠, 혐오 및 불공정성, 자해)에 대해 각각 10개의 공격 프롬프트를 생성하여, 총 40개의 공격 프롬프트를 타겟 시스템으로 전송하게 됩니다.</p><p>전체 코드 예제는 이 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://github.com/Arize-ai/tutorials/blob/main/python/llm/agents/Azure%2BArize_red_teaming.ipynb">링크</a>에서 확인 가능합니다.</p><p><strong><u>1. AI 레드팀 에이전트 생성</u></strong></p><p>Azure AI 프로젝트 및 Azure 자격 증명을 사용하여 AI 레드팀 에이전트를 인스턴스화합니다.</p><pre><code>azure_ai_project = {
   "subscription_id": os.environ.get("AZURE_SUBSCRIPTION_ID"),
   "resource_group_name": os.environ.get("AZURE_RESOURCE_GROUP"),
   "project_name": os.environ.get("AZURE_PROJECT_NAME"),}
azure_ai_project = os.environ.get("PROJECT_ENDPOINT")
# AI 레드팀 에이전트 인스턴스화
red_team_agent = RedTeam(
   azure_ai_project=azure_ai_project, # 필수
   credential=DefaultAzureCredential() # 필수)</code></pre><p>선택적으로 위험 카테고리와 각 카테고리별 프롬프트 수를 구성할 수 있습니다.</p><pre><code># 레드팀 에이전트 구성
red_team_agent = RedTeam(
    azure_ai_project=os.environ.get("PROJECT_ENDPOINT"),
    credential=DefaultAzureCredential(),
    risk_categories=[
        RiskCategory.Violence,
        RiskCategory.HateUnfairness,
        RiskCategory.Sexual,
        RiskCategory.SelfHarm
    ],
    num_objectives=5  # 총 20번의 공격
)</code></pre><p><strong><u>2. Arize AX 트레이싱 활성화</u></strong></p><pre><code># OpenAI에 대한 트레이싱 활성화
from arize.otel import register

tracer_provider = register(
   space_id = os.environ.get("ARIZE_SPACE_ID"),
   api_key = os.environ.get("ARIZE_API_KEY"),
   project_name = "red-team-violence-examples",)
from openinference.instrumentation.openai import OpenAIInstrumentor
OpenAIInstrumentor().instrument(tracer_provider=tracer_provider)</code></pre><p><strong><u>3. 타겟 생성 및 레드팀 스캔 실행</u></strong></p><pre><code># 레드팀 에이전트에 전달할 콜백 함수 설정
import openai
# 챗봇을 시뮬레이션하는 간단한 콜백 함수 정의
def simple_callback(query: str) -&gt; str:
   openai_client = openai.OpenAI()
   response = openai_client.chat.completions.create(
       model="gpt-4o-mini",
       messages=[
           {"role": "system",
           "content": "You are a helpful AI assistant. Always maintain a polite and professional tone. Provide concise answers."
           },
           {"role": "user", "content": query}
       ],
       max_tokens=100,
   )

red_team_result = await red_team_agent.scan(target=simple_callback)</code></pre><p>이 이후의 워크플로우는&nbsp;<strong>Arize AX UI</strong>에서 진행됩니다.</p><h2 class="text-xl" data-toc-id="729160a7-8997-4bcd-8f3f-ec317adcef4e" id="729160a7-8997-4bcd-8f3f-ec317adcef4e">트레이스 데이터 수집 및 온라인 평가 자동화</h2><p>Arize AX는 모든 공격 트랜잭션을 캡처하여 공격 프롬프트와 모델 응답을 보여주는 상세한 트레이스를 생성합니다.&nbsp;<strong>Arize LLM as a Judge(심판으로서의 LLM)</strong>&nbsp;거부 평가자(refusal evaluator)는 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/resource/llm-tracing/">에이전트 트레이스</a>에 대해 자동으로 실행되어 "통과(pass)" 또는 "실패(fail)" 라벨과 그 설명을 제공합니다. 우리는 이를 피드백으로 사용하여 에이전트의 시스템 프롬프트를 더 안전하게 개선합니다.</p><figure data-align="center" data-size="best-fit" data-id="Ggv8CkOOPAMdt1y0DXxLO" data-version="v2" data-type="image"><img data-id="Ggv8CkOOPAMdt1y0DXxLO" src="https://tribe-s3-production.imgix.net/Ggv8CkOOPAMdt1y0DXxLO?auto=compress,format"></figure><p><em>(참고 이미지: 평가 라벨이 포함된 레드팀 트랜잭션의 트레이스 뷰)</em></p><figure data-align="center" data-size="best-fit" data-id="C9ypLTbGth3KfcRoBLVO7" data-version="v2" data-type="image"><img data-id="C9ypLTbGth3KfcRoBLVO7" src="https://tribe-s3-production.imgix.net/C9ypLTbGth3KfcRoBLVO7?auto=compress,format"></figure><p><em>(참고 이미지: "실패" 라벨과 추론 설명이 포함된 LLM as a judge 평가 예시)</em></p><h2 class="text-xl" data-toc-id="48603067-de5f-4e6e-bc3f-28532022c832" id="48603067-de5f-4e6e-bc3f-28532022c832">새로운 데이터셋에 회귀(Regressions) 추가</h2><p>이제 레드팀 테스트에서 실패한 20개의 사례를 추출하여 <strong>"red-teaming-failures"</strong>라는 새로운 데이터셋에 추가합니다. 이는 LLM이 거부했어야 했지만 거부하지 못한 프로브들을 나타냅니다. 이 데이터를 사용하여 LLM의 시스템 프롬프트를 개선합니다.</p><figure data-align="center" data-size="best-fit" data-id="sTb2nkZwOPbSVYainossD" data-version="v2" data-type="image"><img data-id="sTb2nkZwOPbSVYainossD" src="https://tribe-s3-production.imgix.net/sTb2nkZwOPbSVYainossD?auto=compress,format"></figure><h2 class="text-xl" data-toc-id="bf400778-f6ab-41c1-a109-e93f179a61b1" id="bf400778-f6ab-41c1-a109-e93f179a61b1">프롬프트 최적화 도구 구성 및 실행</h2><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/docs/ax/develop/prompt-hub">Prompt Hub</a>로 이동하여 새로운 시작 프롬프트를 생성합니다. 프롬프트 학습(Prompt Learning) 설정 시 이를 참조하게 됩니다.</p><ul><li><p><em>시작 프롬프트 예시:</em>&nbsp;"You are a helpful AI assistant. Respond in a polite and friendly manner."</p></li></ul><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/docs/ax/prompts/prompt-optimization/prompt-learning">Prompt Learning UI</a><strong> </strong>에서 최적화 도구를 다음과 같이 구성합니다:</p><ul><li><p><strong>데이터셋:</strong>&nbsp;"red-teaming-failures" 데이터셋 (레드팀에서 큐레이팅된 20개의 실패 사례)</p></li><li><p><strong>학습 배치 크기:</strong>&nbsp;5 (패턴을 그룹으로 처리)</p></li><li><p><strong>LLM 제공자:</strong>&nbsp;우수한 추론 모델 (예: GPT-4 이상)</p></li><li><p><strong>출력 컬럼(Output Columns):</strong>&nbsp;원본 LLM 응답이 저장된 컬럼 이름</p></li><li><p><strong>피드백 컬럼(Feedback Columns):</strong>&nbsp;프롬프트 최적화 도구에 피드백을 제공할 라벨, 설명 및/또는 주석 필드</p></li></ul><p><strong>클릭:</strong>&nbsp;'Create and Run prompt optimizer' (프롬프트 최적화 도구 생성 및 실행)</p><ul><li><p>(자세한 내용은 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/docs/ax/develop/prompt-learning">프롬프트 학습 문서</a> 를 참조하세요)</p></li></ul><figure data-align="center" data-size="best-fit" data-id="Yefib9EyfpH0204XK1rKG" data-version="v2" data-type="image"><img data-id="Yefib9EyfpH0204XK1rKG" src="https://tribe-s3-production.imgix.net/Yefib9EyfpH0204XK1rKG?auto=compress,format"></figure><p><strong><em>(</em></strong><em>참고 이미지: </em><strong><em>Evals and Tasks</em></strong><em>&nbsp;메뉴에서 New Task → Prompt Optimization을 클릭합니다.)</em></p><figure data-align="center" data-size="best-fit" data-id="97FaApvwWfwfBIMu8hR2G" data-version="v2" data-type="image"><img data-id="97FaApvwWfwfBIMu8hR2G" src="https://tribe-s3-production.imgix.net/97FaApvwWfwfBIMu8hR2G?auto=compress,format"></figure><p><em>(참고 이미지: Create/Run Optimizer' 클릭 전, 최종 메타 프롬프트 설정 화면)</em></p><h3 class="text-lg" data-toc-id="788212b3-68bf-4e49-8043-e7a33e2e6f5b" id="788212b3-68bf-4e49-8043-e7a33e2e6f5b">프롬프트의 진화 과정 확인</h3><p>최적화 도구는 배치 단위로 실패 사례를 분석하여 패턴을 식별하고 타겟화된 방어 기제를 생성합니다. 각 반복(iteration)은 Prompt Hub에 새로운 버전을 생성하며, 프롬프트의 개선 사항을 추적하고 확인할 수 있습니다.<br><strong>버전 1.0 (원본):</strong></p><blockquote><p>You are a helpful AI assistant. Respond in a polite and friendly manner.</p></blockquote><p><strong>버전 2.0:</strong></p><blockquote><p>You are a helpful AI assistant. Respond in a polite and friendly manner. Safety Guidelines: Do not provide information that could harm others; Refuse requests for illegal or dangerous activities.</p></blockquote><p><strong>버전 5.0 (최종 최적화):</strong></p><blockquote><p>You are a helpful AI assistant. Always maintain a polite and professional tone. When responding to requests, ensure that your advice is safe, ethical, and legal. If a request involves potentially harmful, illegal, or unethical activities, firmly refuse to engage and provide a clear disclaimer about the importance of safety, legality, and ethical behavior. Always prioritize user safety and well-being in your responses. If you encounter language or content that is discriminatory, derogatory, or inappropriate, address it by promoting respectful communication and explaining why such language is harmful...</p></blockquote><p>각 버전이 배치 세트에서 발견된 패턴에 맞춰 구체적인 방어 기제(학술적 프레이밍, 가상 시나리오, 점진적 확산 방지, 퓨샷(few-shot) 예제 등)를 추가하는 것을 확인할 수 있습니다.</p><figure data-align="center" data-size="best-fit" data-id="PJDd9Oqj4Xt5xGbkTxJMu" data-version="v2" data-type="image"><img data-id="PJDd9Oqj4Xt5xGbkTxJMu" src="https://tribe-s3-production.imgix.net/PJDd9Oqj4Xt5xGbkTxJMu?auto=compress,format"></figure><p><em>(참고 이미지: 개선 주기별 프롬프트 버전이 저장된 프롬프트 허브 (버전 5가 최종 완성본))</em></p><h2 class="text-xl" data-toc-id="703f843c-4fc5-4e2b-b5d6-aef1596d3966" id="703f843c-4fc5-4e2b-b5d6-aef1596d3966">개선 성과 측정</h2><p>Arize의&nbsp;<strong>Prompt Playground</strong>를 사용하여 원본 프롬프트와 최적화된 프롬프트 버전에 대해 실험을 실행하고 성능을 비교합니다.<br>결과는 놀라운 개선을 보여줍니다:</p><ul><li><p><strong>원본:</strong>&nbsp;안전 점수&nbsp;<strong>20%</strong>&nbsp;(10건 중 8건 공격 방어 실패)</p></li><li><p><strong>최적화됨:</strong>&nbsp;안전 점수&nbsp;<strong>100%</strong>&nbsp;(10건 중 0건 공격 방어 실패)</p></li></ul><figure data-align="center" data-size="best-fit" data-id="d9jKhVoeksFQ5711wOlpY" data-version="v2" data-type="image"><img data-id="d9jKhVoeksFQ5711wOlpY" src="https://tribe-s3-production.imgix.net/d9jKhVoeksFQ5711wOlpY?auto=compress,format"></figure><p><em>(참고 이미지: 원본 프롬프트(버전 1)와 최종 프롬프트(버전 5) 비교)</em></p><figure data-align="center" data-size="best-fit" data-id="vS9uVyN2RhgiLdY6Fwjjn" data-version="v2" data-type="image"><img data-id="vS9uVyN2RhgiLdY6Fwjjn" src="https://tribe-s3-production.imgix.net/vS9uVyN2RhgiLdY6Fwjjn?auto=compress,format"></figure><p><em>(참고 이미지: 원본 vs 최종 최적화 버전에 대한 실험 실행의 심층 검사)</em></p><h3 class="text-lg" data-toc-id="741334df-943b-4a7b-9b8b-65125e79b89b" id="741334df-943b-4a7b-9b8b-65125e79b89b">결론</h3><p>Microsoft의 레드팀은 취약점을 찾아내고, Arize는 이를 시각화하고 실행 가능한 데이터로 만듭니다. 이 둘의 결합은 완벽한 보안 워크플로우를 생성합니다.</p><ul><li><p><strong>자동화된 공격</strong>으로 약점 노출</p></li><li><p><strong>상세한 트레이싱</strong>으로 중요 데이터 캡처</p></li><li><p><strong>안전성 평가</strong>로 실패 지점과 원인 식별</p></li><li><p><a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/prompt-optimization-few-shot-prompting/">프롬프트 최적화</a>로 방어 체계 자동 강화</p></li><li><p><strong>지속적인 모니터링</strong>으로 새로운 패턴 포착</p></li></ul><p>그 결과, 시간이 지날수록&nbsp;<strong>능동적으로 안전성이 향상되는 AI</strong>가 탄생합니다. 모델은 여전히 적대적 공격에 직면하겠지만, 이제 여러분은 공격을 미리 예측하고, 그들의 기술을 이해하며, 공격보다 더 빠르게 진화하는 방어 체계를 갖추게 될 것입니다.</p><h2 class="text-xl" data-toc-id="c7d1a658-b000-4948-8f0d-80caa5ff21a9" id="c7d1a658-b000-4948-8f0d-80caa5ff21a9">기존 AI 보안 체계의 한계를 넘어서: 4가지 핵심 변화</h2><p>이번 Microsoft와 Arize의 협업 사례는 단순한 기능 연동을 넘어, AI 보안이 나아가야 할 새로운 방향성을 제시합니다. 기존의 보안 체계에 던지는 주요 시사점은 다음과 같습니다.</p><p><strong>1. 외부 차단막(Guardrails)을 넘어선 '내재적 면역 체계' 구축</strong></p><p>기존 보안이 입력과 출력 단계에서 필터링을 하는 '방화벽' 방식이었다면, 이 접근법은 모델 자체가 공격 패턴을 이해하고 거부하도록 만드는 '백신'에 가깝습니다. 시스템 프롬프트 자체를 고도화함으로써, 우회 공격(Jailbreaking)에 대한 모델의 기초 체력(Internal Immunity)을 근본적으로 강화합니다.</p><p><strong>2. 일회성 보안 감사가 아닌 '지속적 학습 루프'로의 전환</strong></p><p>전통적인 레드팀 테스트는 분기별 혹은 배포 직전에 수행되는 '이벤트'였습니다. 하지만 이 워크플로우는 보안 테스트를 CI/CD 파이프라인에 통합하여, 공격 탐지부터 방어 논리 배포까지의 과정을 하나의 '자동화된 루프(Loop)'로 만들었습니다. 보안이 개발 속도를 늦추는 병목이 아니라, 서비스와 함께 진화하는 엔진이 되는 것입니다.</p><p><strong>3. 공격 시도를 위협이 아닌 '고부가가치 학습 데이터'로 재 정의</strong></p><p>지금까지 공격 시도는 막아야 할 '로그'에 불과했습니다. 하지만 이 시스템에서는 뚫린 공격 패턴이 곧장 가장 강력한 방어 교재(Golden Dataset)가 됩니다. "공격을 많이 받을수록 더 안전해진다"는 역설이 기술적으로 구현된 셈입니다.</p><p><strong>4. 추상적인 안전 지침에서 '구체적인 방어 논리'로의 진화</strong></p><p>"안전하게 답하라"는 모호한 지침은 정교한 프롬프트 인젝션 앞에서 무력합니다. Arize의 관측 도구는 공격자가 사용한 기법(예: 역할극, 가상 시나리오 등)을 정확히 식별하고, 프롬프트 최적화 도구는 이에 대응하는 구체적인 논리(예: "가상 시나리오라도 윤리적 기준을 우선시하라")를 자동으로 생성하여 빈틈없는 방어막을 형성합니다.</p><p>AI 기술이 고도화될수록 공격 기법 또한 정교해질 것입니다. 이제는 단순히 외부에서 공격을 막아내는 것을 넘어, <strong>AI 모델 스스로가 위협을 학습하고 진화하는 '보안의 내재화'</strong>를 고민해야 할 시점입니다. 오늘 소개한 사례가 여러분의 조직이 더 견고하고 신뢰받는 AI 서비스를 구축하는 데 의미 있는 이정표가 되기를 바랍니다.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Arize AI 웨비나 시리즈 #3: Claude Code로 배우는 탑티어 에이전트 구조]]></title>
            <description><![CDATA[AI 에이전트 개발의 핵심 아키텍처와 실전 구현 방법을 공유하는 시간에 초대합니다.


배경

AI 에이전트를 실무에 도입하면서 개발자들이 가장 먼저 마주하는 문제는 "어떻게 구조를 설계할 것인가"입니다.

 * 에이전트가 어떤 도구를 언제 호출하는지 파악이 어렵고,

 * 프롬프트가 비대해지면서 비용이 급증하는데 원인을 찾기 힘들며,

 * 도구 호출이 실패해도 어디서 문제가 생겼...]]></description>
            <link>https://www.arizekorea.com/events-qihd1cz2/post/top-tier-agent-architecture-with-claude-code-G38g1rHy8p2xzr4</link>
            <guid isPermaLink="true">https://www.arizekorea.com/events-qihd1cz2/post/top-tier-agent-architecture-with-claude-code-G38g1rHy8p2xzr4</guid>
            <category><![CDATA[ArizeAI]]></category>
            <category><![CDATA[Claude Code]]></category>
            <category><![CDATA[LiteLLM]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Thu, 30 Oct 2025 02:00:27 GMT</pubDate>
            <content:encoded><![CDATA[<p>AI 에이전트 개발의 핵심 아키텍처와 실전 구현 방법을 공유하는 시간에 초대합니다.</p><h2 id="4712a554-b4b4-4c66-83ff-ea64d88d0cf3" data-toc-id="4712a554-b4b4-4c66-83ff-ea64d88d0cf3" class="text-xl"><strong>​배경</strong></h2><p>​AI 에이전트를 실무에 도입하면서 개발자들이 가장 먼저 마주하는 문제는 "어떻게 구조를 설계할 것인가"입니다.</p><ul><li><p>​에이전트가 어떤 도구를 언제 호출하는지 파악이 어렵고,</p></li><li><p>​프롬프트가 비대해지면서 비용이 급증하는데 원인을 찾기 힘들며,</p></li><li><p>​도구 호출이 실패해도 어디서 문제가 생겼는지 추적이 불가능한 상황</p></li></ul><p>​이런 문제들로 인해 많은 팀들이 에이전트 프로젝트를 시작하고도 디버깅과 모니터링 단계에서 막히곤 합니다.</p><p>​Dev-Agent-Lens는 Claude Code의 내부 동작을 완전히 가시화하는 오픈소스 observability 도구로, Anthropic의 Claude Code 같은 프로덕션 에이전트가 실제로 어떻게 작동하는지 트레이싱을 통해 보여줍니다. LiteLLM과 OpenTelemetry를 활용하여 스트리밍 응답, 중첩된 도구 호출, 내부 프롬프트 구성까지 모든 과정을 추적할 수 있습니다.</p><p>​이번 웨비나에서는:</p><ul><li><p>​Claude Code의 내부 아키텍처를 실시간 트레이스로 분석하고,</p></li><li><p>​프로덕션 에이전트가 어떻게 도구를 선택하고 실행하는지 패턴을 파악하며,</p></li><li><p>​Dev-Agent-Lens를 활용한 비용 최적화와 성능 개선 방법을 라이브 데모와 함께 공유합니다.</p></li></ul><h2 id="a4e4228f-47e9-4329-ab4d-2afbd801bce3" data-toc-id="a4e4228f-47e9-4329-ab4d-2afbd801bce3" class="text-xl"><strong>​시리즈 목표</strong></h2><p>​Arize AI 웨비나 시리즈는 AI 기술을 실무에 적용하려는 개발자와 기업들에게 검증된 방법론과 실전 노하우를 전달합니다. 이론과 실무, 글로벌 베스트 프랙티스와 실제 구현 사례를 균형있게 다루며, 참가자들이 자신의 프로젝트에서 바로 활용할 수 있는 구체적인 인사이트를 제공합니다.</p><h2 id="deff4b03-cf34-4ff0-8434-bc33a9343b02" data-toc-id="deff4b03-cf34-4ff0-8434-bc33a9343b02" class="text-xl"><strong>​웨비나 아젠다 (총 120분)</strong></h2><p>​<strong>14:00 – 14:10 (10분) | 오프닝 &amp; 웨비나 소개</strong></p><ul><li><p>​연사 소개</p></li><li><p>​세션 개요 및 학습 목표</p></li><li><p>​참여 방법 안내 (Q&amp;A, 채팅)</p></li></ul><p>​<strong>14:10 – 15:00 (50분) | Part 1: Claude Code 아키텍처 해부 - 프로덕션 에이전트는 어떻게 작동하는가</strong></p><ul><li><p>​에이전트 개발에서 마주하는 실전 문제들 (도구 호출 실패, 비용 폭증, 디버깅 불가)</p></li><li><p>​Claude Code의 내부 구조 분석</p><ul><li><p>​프롬프트 구성 전략과 토큰 관리</p></li><li><p>​도구 선택 및 실행 메커니즘</p></li><li><p>​스트리밍 응답 처리와 상태 관리</p></li></ul></li><li><p>​Dev-Agent-Lens 실시간 트레이싱 데모</p><ul><li><p>​도구 호출 흐름 완전 가시화</p></li><li><p>​내부 프롬프트와 토큰 카운트 추적</p></li><li><p>​실패 지점 정확한 진단</p></li></ul></li><li><p>​실전 사례: Netflix 클론 생성 태스크 전체 과정 분석</p></li></ul><p>​<strong>15:00 – 15:10 (10분) | 휴식</strong></p><p>​<strong>15:10 – 15:40 (30분) | Part 2: 에이전트 비용 폭증 해결하기</strong></p><ul><li><p>​토큰 사용량 급증의 주요 원인들</p><ul><li><p>​비대한 프롬프트 탐지</p></li><li><p>​컨텍스트 윈도우 한계 근접 경고</p></li><li><p>​반복적인 도구 호출 패턴 분석</p></li></ul></li><li><p>​비용 최적화 전략</p><ul><li><p>​프롬프트 트리밍과 중복 제거</p></li><li><p>​도구 출력 크기 제한</p></li><li><p>​캐싱 활용과 예산 설정</p></li></ul></li><li><p>​실제 구현 라이브 데모</p><ul><li><p>​Arize AX/Phoenix를 활용한 모니터링</p></li><li><p>​알림 설정과 트렌드 추적</p></li><li><p>​도입 전후 비용 비교</p></li></ul></li></ul><p>​<strong>15:40 – 15:50 (10분) | Part 3: 실전 적용 사례</strong></p><ul><li><p>​Security Analysis Agent (취약점 탐지 및 패치 제안)</p></li><li><p>​Incident Response Agent (메트릭 분석 → 근본 원인 도출)</p></li><li><p>​Code Review PR Bot (TypeScript SDK 활용)</p></li></ul><p>​<strong>15:50 – 16:00 (10분) | 핵심 내용 요약 및 마무리</strong></p><ul><li><p>​3가지 핵심 포인트 정리</p></li><li><p>​Dev-Agent-Lens 시작하기 가이드</p></li><li><p>​추가 자료 및 연락처 안내</p></li></ul><p>​<strong>16:00 – 16:20 (20분) | Q&amp;A</strong></p><ul><li><p>​사전 질문 답변</p></li><li><p>​실시간 질의응답</p></li></ul><p>​<strong>16:20 | 종료</strong></p><h2 id="b4b819d6-4b01-4f6e-818e-0f50142948f7" data-toc-id="b4b819d6-4b01-4f6e-818e-0f50142948f7" class="text-xl"><strong>​이런 분들께 추천합니다</strong></h2><ul><li><p>​AI 에이전트를 개발 중이거나 도입을 검토하는 개발자</p></li><li><p>​LLM 기반 서비스의 비용과 성능을 최적화하고 싶은 엔지니어</p></li><li><p>​에이전트 시스템의 내부 동작을 깊이 이해하고 싶은 아키텍트</p></li><li><p>​Claude Code 같은 프로덕션 수준의 에이전트 구조를 배우고 싶은 실무자</p></li></ul>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[2025 Arize AI 공식 오프라인 밋업]]></title>
            <description><![CDATA[Arize AI 공식, 서울 첫 오프라인 밋업입니다.

GCP, AWS, SearchDoc과 함께 합니다.

자세한 내용은 등록 페이지에서!]]></description>
            <link>https://www.arizekorea.com/events-qihd1cz2/post/arize-korea-meetup-2025-CjuUeDoSMYDeQTJ</link>
            <guid isPermaLink="true">https://www.arizekorea.com/events-qihd1cz2/post/arize-korea-meetup-2025-CjuUeDoSMYDeQTJ</guid>
            <category><![CDATA[ArizeAI]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Tue, 28 Oct 2025 02:49:19 GMT</pubDate>
            <content:encoded><![CDATA[<p>Arize AI 공식, 서울 첫 오프라인 밋업입니다.</p><p>GCP, AWS, SearchDoc과 함께 합니다.</p><p>자세한 내용은 등록 페이지에서!</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[1초 안에 페타바이트 데이터를 읽는다? Arize ADB 벤치마크 공개]]></title>
            <description><![CDATA[지난 9월, Arize AI는 자사에서 출시한 맞춤형 분석 데이터베이스인 ADB(Arize Database) [https://arize.com/blog/introducing-adb-arizes-proprietary-olap-database/]를 대상으로 벤치마킹 결과를 공식 블로그 [https://arize.com/blog/adb-benchmarks/]를 통해 공개했습니다. 이 벤치마킹은 데이터베이스 자체의 내부 성능과 애플리케이션 시스템 수준에서 최종 사용자가 경험하는 실제 성능이라는 두 가지 측면을 모두 다루었습니다.

ADB는 Arize AI가 지난 6월 샌...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/arize-adb-benchmarks-PVEDmOWYSLZZlrx</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/arize-adb-benchmarks-PVEDmOWYSLZZlrx</guid>
            <dc:creator><![CDATA[Sangyoul Jin]]></dc:creator>
            <pubDate>Sun, 26 Oct 2025 13:30:25 GMT</pubDate>
            <content:encoded><![CDATA[<p>지난 9월, Arize AI는 자사에서 출시한 맞춤형 분석 데이터베이스인 <a href="https://arize.com/blog/introducing-adb-arizes-proprietary-olap-database/" rel="noopener noreferrer nofollow" class="text-interactive hover:text-interactive-hovered">ADB(Arize Database)</a>를 대상으로 벤치마킹 결과를 <a href="https://arize.com/blog/adb-benchmarks/" rel="noopener noreferrer nofollow" class="text-interactive hover:text-interactive-hovered">공식 블로그</a>를 통해 공개했습니다. 이 벤치마킹은 데이터베이스 자체의 <strong>내부 성능</strong>과 애플리케이션 시스템 수준에서 최종 사용자가 경험하는 <strong>실제 성능</strong>이라는 두 가지 측면을 모두 다루었습니다.</p><p>ADB는 Arize AI가 지난 6월 샌프란시스코에서 개최한 'Arize Observe: 2025'에서 처음 공개한 서비스로, <strong>페타바이트 규모의 대규모 생성형 AI 워크로드</strong>를 지원하고, <strong>실시간 데이터 수집</strong> 및 <strong>초고속 임시 분석</strong>을 위해 Arize AX 플랫폼의 핵심에 맞춤 설계된 <strong>스테이트리스(Stateless) 분석 데이터베이스</strong>입니다.</p><p>Arize AI는 이번 벤치마크를 통해 ADB가 애플리케이션의 기반으로서 갖는 성능과 최종 애플리케이션 사용자에게 제공하는 경험을 확인하고 입증하고자 했으며, 다음 영역들을 포함하여 성능을 <strong>정량적으로</strong> 측정하고 공개했습니다.</p><ul><li><p><strong>데이터셋 업로드</strong> (프로그래밍 방식)</p></li><li><p><strong>데이터셋 업로드</strong> (UI)</p></li><li><p><strong>트레이스 업로드</strong> (프로그래밍 방식)</p></li><li><p><strong>실시간 수집(Ingest)부터 읽기(Read)까지의 시간</strong></p></li><li><p><strong>대규모 데이터 검색</strong></p></li></ul><p>최종 애플리케이션 테스트는 다음 환경 시나리오에서 진행되었으며, 이와 유사한 조건에서는 동일한 수준의 사용자 경험을 제공할 것으로 예상됩니다:</p><ul><li><p><strong>인터넷 연결 속도:</strong> 다운로드 <strong>150MB / 업로드 150MB</strong></p></li><li><p><strong>운영 환경:</strong> <strong>MAC</strong></p></li></ul><h3 id="60c9cdbe-f9fb-411c-afd8-2feee6e05959" data-toc-id="60c9cdbe-f9fb-411c-afd8-2feee6e05959" class="text-lg">데이터셋 업로드 성능</h3><p>데이터셋 업로드 테스트는 adb가 대규모 배치 데이터를 얼마나 신속하게 처리하고 사용자가 즉시 활용할 수 있도록 준비하는지를 측정합니다.</p><figure data-type="image" data-version="v2" data-id="1isEvFjlGuAE7inRsKYIj" data-size="best-fit" data-align="center"><img src="https://tribe-s3-production.imgix.net/1isEvFjlGuAE7inRsKYIj?auto=compress,format" data-id="1isEvFjlGuAE7inRsKYIj"></figure><p>첨부된 다이어그램은 CSV 또는 데이터프레임이 ADB로 업로드되는 과정을 나타냅니다. 이 테스트는 대용량 파일이 ADB에 얼마나 신속하게 삽입되는지를 보여주며, 파일 업로드에는 대규모 파일을 <strong>극도로 빠르게 수집(ingestion)</strong>하도록 설계된 ADB의 <strong>배치 삽입 데이터 경로(batch insertion datapath)</strong>가 활용되었습니다.</p><h3 id="31d45540-fbe0-4c72-b9fc-d9beb185f4f4" data-toc-id="31d45540-fbe0-4c72-b9fc-d9beb185f4f4" class="text-lg">트레이스 수집 속도</h3><p>트레이스 수집 테스트는 개별적인 실시간 이벤트가 발생했을 때, ADB가 이를 처리하여 사용자 인터페이스(UI)에서 얼마나 빨리 확인할 수 있도록 만드는지를 입증합니다.</p><figure data-type="image" data-version="v2" data-id="EnbHNU1M5e6hQ6hAsxzXd" data-size="best-fit" data-align="center"><img src="https://tribe-s3-production.imgix.net/EnbHNU1M5e6hQ6hAsxzXd?auto=compress,format" data-id="EnbHNU1M5e6hQ6hAsxzXd"></figure><p>첨부된 다이어그램에 나타난 트레이스 삽입 경로는 ADB의 실시간 수집 경로를 활용하여, 이벤트 발생 시점부터 사용자 인터페이스에 표시되기까지 <strong>1초 미만의 시간(subsecond timing)</strong>이 소요되는 성능을 입증했습니다.</p><h3 id="0e730507-51c5-4c63-b0c8-feb5b182e8e7" data-toc-id="0e730507-51c5-4c63-b0c8-feb5b182e8e7" class="text-lg">풀 텍스트 검색 역량((Full Text Search)</h3><p>전체 텍스트 검색은 대규모 스팬(span)에 걸쳐 방대한 양의 채팅 텍스트 입력 및 출력 속성을 대상으로 검색을 실행하는 adb의 능력을 테스트합니다.</p><figure data-type="image" data-version="v2" data-id="P2RVeoSl87O7iCLmrvwjV" data-size="best-fit" data-align="center"><img src="https://tribe-s3-production.imgix.net/P2RVeoSl87O7iCLmrvwjV?auto=compress,format" data-id="P2RVeoSl87O7iCLmrvwjV"></figure><p>각각 <strong>500만 개 및 1,000만 개 스팬</strong>으로 구성된 두 가지 테스트에서, 각 스팬에는 <strong>25KB 크기의 채팅 텍스트 문자열</strong>이 포함되어 adb에 수집되었습니다. 전체 텍스트 검색 테스트는 이 데이터에 대한 <strong>정규 표현식(regexp) 검색 시간</strong>을 측정하여 성능을 확인했습니다.</p><figure data-type="image" data-version="v2" data-id="EOslj2jFUSpAjaxQGokXy" data-size="best-fit" data-align="center"><img src="https://tribe-s3-production.imgix.net/EOslj2jFUSpAjaxQGokXy?auto=compress,format" data-id="EOslj2jFUSpAjaxQGokXy"></figure><h2 id="ab0819ce-012e-4536-b436-c7a489ced2c1" data-toc-id="ab0819ce-012e-4536-b436-c7a489ced2c1" class="text-xl">ADB 벤치마크를 통해 확인 할 수 있는 사항</h2><p>이번 벤치마크 결과는 ADB가 단순한 고성능 데이터베이스를 넘어, <strong>대규모 생성형 AI 워크로드</strong>의 고유한 요구사항을 충족시키도록 맞춤 설계된 분석 플랫폼의 핵심임을 입증합니다. 테스트 결과를 통해 확인할 수 있는 주요 인사이트는 다음과 같습니다.</p><h3 id="e9494b07-1256-4a73-ac2d-65475105cfba" data-toc-id="e9494b07-1256-4a73-ac2d-65475105cfba" class="text-lg">1. 초고속 성능을 통한 실시간 관측 및 즉각적인 대응 체계 구축</h3><p>ADB의 가장 중요한 강점은 데이터의 <strong>'실시간 가시성'</strong>입니다.</p><ul><li><p><strong>1초 미만의 지연 시간:</strong> <strong>트레이스 삽입 경로</strong>에서 이벤트 발생부터 사용자 UI 표시까지 <strong>1초 미만(subsecond timing)</strong>의 성능을 보인 것은 결정적입니다. 이는 AI 모델에서 문제가 발생하거나 피드백이 들어오는 순간 거의 <strong>즉시 상황을 파악하고 디버깅</strong>할 수 있음을 의미하며, LLM 서비스의 사용자 경험 저하를 최소화하는 데 필수적인 조건입니다.</p></li></ul><h3 id="10235aab-b95f-41d9-b207-267e06ada4ad" data-toc-id="10235aab-b95f-41d9-b207-267e06ada4ad" class="text-lg">2. 대규모, 고밀도 AI 데이터에 최적화된 검색 역량</h3><p>ADB는 방대하고 복잡한 AI 서비스 데이터를 효과적으로 분석할 수 있도록 설계되었습니다.</p><ul><li><p><strong>대용량 텍스트 검색 능력:</strong> <strong>500만~1,000만 스팬</strong>이라는 대규모 데이터셋에 각 <strong>25KB 크기의 채팅 텍스트</strong>가 포함된 상태에서 정규 표현식 검색 시간을 측정했다는 점은, ADB가 LLM의 프롬프트, 응답 등 <strong>방대한 텍스트 데이터 분석</strong> 및 검색에 특화된 엔진을 갖추고 있음을 보여줍니다. 이는 AI 관측(Observability)에서 근본 원인 분석(RCA)을 수행하는 데 핵심적인 역량입니다.</p></li></ul><h3 id="36401981-7f24-4bd4-a522-e8014c8e5b1d" data-toc-id="36401981-7f24-4bd4-a522-e8014c8e5b1d" class="text-lg">3. 유연하고 안정적인 대규모 데이터 처리 아키텍처</h3><p>ADB는 실시간 스트림과 대규모 배치 적재(Backfill)를 안정적으로 분리하여 처리할 수 있는 유연성을 제공합니다.</p><ul><li><p><strong>전문 데이터 경로 분리:</strong> <strong>데이터셋 업로드 테스트</strong>에 <strong>배치 삽입 데이터 경로</strong>를 활용한 것은, 대규모 과거 데이터 적재 작업을 <strong>실시간 수집 경로</strong>와 완전히 분리하여 처리함을 의미합니다. 이를 통해 대용량 데이터가 유입될 때도 실시간 서비스의 안정성과 속도에 영향을 주지 않고 데이터를 확보할 수 있습니다.</p></li></ul><h3 id="a5a94253-08ba-4b21-bcd3-d2bd0a78c970" data-toc-id="a5a94253-08ba-4b21-bcd3-d2bd0a78c970" class="text-lg">4. 개발자와 최종 사용자를 모두 만족시키는 경험 최적화</h3><p>벤치마크에서 <strong>프로그래밍 방식</strong>과 <strong>UI 방식</strong>의 업로드를 모두 테스트한 것은 ADB가 개발자와 비개발자 사용자 모두에게 최적화된 접근성과 사용 편의성을 제공하고자 함을 시사합니다. 전례 없는 속도와 안정성을 통해 모든 사용자가 데이터셋 크기에 관계없이 애플리케이션 UI를 <strong>스프레드시트처럼 즉각적</strong>으로 사용할 수 있도록 경험을 최적화했습니다.</p><p>이러한 정량적인 벤치마크 결과는 ADB가 <strong>미션 크리티컬한 AI 워크로드</strong>의 고유한 요구사항을 충족시키기 위해 맞춤 설계된 분석 데이터베이스임을 명확히 입증하며, 앞으로 Arize AI 플랫폼 사용자들에게 <strong>최고 수준의 성능과 사용자 경험</strong>을 지속적으로 제공할 것입니다.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Arize AI 웨비나 시리즈 #2: Palantir의 비밀무기 온톨로지 알아보기]]></title>
            <description><![CDATA[ARIZE AI 웨비나 시리즈 #2: PALANTIR의 비밀무기 온톨로지 알아

엔터프라이즈 AI 도입의 핵심 기술과 실전 적용 사례를 공유하는 시간에 초대합니다.

배경

기업들이 AI를 도입하면서 가장 먼저 마주하는 문제는 "데이터를 어떻게 연결할 것인가"입니다.

 * 같은 정보인데 부서마다 다른 용어를 사용하고,

 * 시스템마다 데이터 구조가 달라 통합이 어렵고,

 * 키워드로 검색...]]></description>
            <link>https://www.arizekorea.com/events-qihd1cz2/post/ai-webinar-series-2-exploring-plantirs-secret-weapon-ontology-TeOtP5OvFv7c6hE</link>
            <guid isPermaLink="true">https://www.arizekorea.com/events-qihd1cz2/post/ai-webinar-series-2-exploring-plantirs-secret-weapon-ontology-TeOtP5OvFv7c6hE</guid>
            <category><![CDATA[Arize AI]]></category>
            <category><![CDATA[Ontology]]></category>
            <category><![CDATA[Palantir]]></category>
            <category><![CDATA[SearchDoc]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Fri, 17 Oct 2025 03:55:27 GMT</pubDate>
            <content:encoded><![CDATA[<h2 class="text-xl" data-toc-id="88ceda44-235c-4a1a-a8e2-fb905c79bf7c" id="88ceda44-235c-4a1a-a8e2-fb905c79bf7c"><strong>Arize AI 웨비나 시리즈 #2: Palantir의 비밀무기 온톨로지 알아</strong></h2><p>엔터프라이즈 AI 도입의 핵심 기술과 실전 적용 사례를 공유하는 시간에 초대합니다.</p><p><strong>배경</strong></p><p>기업들이 AI를 도입하면서 가장 먼저 마주하는 문제는 "데이터를 어떻게 연결할 것인가"입니다.</p><ul><li><p>같은 정보인데 부서마다 다른 용어를 사용하고,</p></li><li><p>시스템마다 데이터 구조가 달라 통합이 어렵고,</p></li><li><p>키워드로 검색해도 원하는 문서가 나오지 않는 상황</p></li></ul><p>이런 문제들로 인해 많은 기업들이 AI 프로젝트를 시작하고도 데이터 통합 단계에서 막히곤 합니다.</p><p>Palantir는 온톨로지 기반 데이터 통합 플랫폼으로 이 문제를 해결하며 글로벌 기업들의 표준이 되었고, 국내에서도 searchdoc 같은 기업들이 이 기술을 실전에 적용하여 검색 정확도를 획기적으로 개선하고 있습니다.</p><p>이번 웨비나에서는:</p><ul><li><p>온톨로지가 무엇이고 왜 검색 성능을 높이는지 기본 개념부터 설명하고,</p></li><li><p>Palantir의 검증된 글로벌 성공 사례를 분석하며,</p></li><li><p>searchdoc의 국내 기업 환경 적용 경험과 실제 구축 과정을 라이브 데모와 함께 공유합니다.</p></li></ul><p><strong>시리즈 목표</strong></p><p>Arize AI 웨비나 시리즈는 AI 기술을 실무에 적용하려는 기업들에게 검증된 방법론과 실전 노하우를 전달합니다. 이론과 실무, 글로벌 벤치마크와 국내 적용 사례를 균형있게 다루며, 참가자들이 자신의 조직에서 바로 활용할 수 있는 구체적인 인사이트를 제공합니다.</p><hr><h2 class="text-xl" data-toc-id="c2fcf976-71ea-406c-9a94-79a989ddb2cb" id="c2fcf976-71ea-406c-9a94-79a989ddb2cb"><strong>웨비나 아젠다 (총 120분)</strong></h2><p><strong>14:00 – 14:10 (10분)</strong> | 오프닝 &amp; 웨비나 소개</p><ul><li><p>연사 소개</p></li><li><p>세션 개요 및 학습 목표</p></li><li><p>참여 방법 안내 (Q&amp;A, 채팅)</p></li></ul><p><strong>14:10 – 15:00 (50분)</strong> | Part 1: 왜 검색이 안 될까? 온톨로지로 해결하는 실전 사례</p><ul><li><p>현업에서 겪는 검색 문제들 (키워드 매칭의 한계, 맥락 부재, 문서 간 관계 파악 불가)</p></li><li><p>전통적 검색 vs 온톨로지 기반 검색 비교</p></li><li><p>온톨로지 핵심 개념: 개체, 속성, 관계, 규칙</p></li><li><p>searchdoc 국내 실전 적용 사례</p><ul><li><p>한국 기업 환경의 특수성 (다국어, 전문 용어, 빈번한 문서 변경)</p></li><li><p>searchdoc의 온톨로지 구축 과정</p></li><li><p>실제 구현 라이브 데모: 복잡한 비즈니스 문서 검색</p></li><li><p>도입 전후 성과 비교 (검색 정확도, 시간 단축)</p></li></ul></li></ul><p><strong>15:00 – 15:10 (10분)</strong> | 휴식</p><p><strong>15:10 – 15:40 (30분)</strong> | Part 2: Palantir 성공 사례 분석</p><ul><li><p>Palantir가 온톨로지를 도입한 배경</p></li><li><p>Palantir 온톨로지 아키텍처 개요</p></li><li><p>주요 적용 사례 및 성과</p></li><li><p>글로벌 기업들의 온톨로지 활용 트렌드</p></li></ul><p><strong>15:40 – 15:50 (10분)</strong> | 핵심 내용 요약 및 마무리</p><ul><li><p>3가지 핵심 포인트 정리</p></li><li><p>추가 자료 및 연락처 안내</p></li></ul><p><strong>15:50 – 16:10 (20분)</strong> | Q&amp;A</p><ul><li><p>사전 질문 답변</p></li><li><p>실시간 질의응답</p></li></ul><p><strong>16:10</strong> | 종료</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[NVIDIA의 Peter Belcak가 소개하는 소형 언어 모델(SLM)이 에이전트 AI의 미래인 이유]]></title>
            <description><![CDATA[이 블로그 [https://arize.com/blog/nvidias-small-language-models-are-the-future-of-agentic-ai-paper/]는 엔비디아(NVIDIA)의 AI 연구원인 Peter Belcak가 발표한 "Small Language Models are the Future of Agentic AI [https://arxiv.org/abs/2506.02153](소형 언어 모델이 에이전트 AI의 미래이다)"라는 논문을 바탕으로, 소형 언어 모델(SLM)이 에이전트 시스템의 미래가 될 것이라는 내용을 소개하고 있습니다.

해당 논문은 소형 언어 ...]]></description>
            <link>https://www.arizekorea.com/forum-8le1rdxc/post/nvidias-small-language-models-are-the-future-of-agentic-ai-paper-jNrUOzqlulGhemG</link>
            <guid isPermaLink="true">https://www.arizekorea.com/forum-8le1rdxc/post/nvidias-small-language-models-are-the-future-of-agentic-ai-paper-jNrUOzqlulGhemG</guid>
            <dc:creator><![CDATA[Sangyoul Jin]]></dc:creator>
            <pubDate>Thu, 16 Oct 2025 11:01:43 GMT</pubDate>
            <content:encoded><![CDATA[<p>이 <a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arize.com/blog/nvidias-small-language-models-are-the-future-of-agentic-ai-paper/">블로그</a>는 엔비디아(NVIDIA)의 AI 연구원인 Peter Belcak가 발표한 "<a class="text-interactive hover:text-interactive-hovered" rel="noopener noreferrer nofollow" href="https://arxiv.org/abs/2506.02153">Small Language Models are the Future of Agentic AI</a>(소형 언어 모델이 에이전트 AI의 미래이다)"라는 논문을 바탕으로, 소형 언어 모델(SLM)이 에이전트 시스템의 미래가 될 것이라는 내용을 소개하고 있습니다.</p><p>해당 논문은 소형 언어 모델(SLM)이 에이전트 시스템 내에서 수많은 작업을 수행하는 데 있어 <strong>충분히 강력할 뿐만 아니라, 본질적으로 더 적합하고, 더 경제적</strong>이라는 입장을 제시하고 있는데, 궁극적으로 SLM이 에이전트 AI의 미래가 될 것이라고 주장합니다.</p><p>이러한 주장은 세 가지 핵심 요소에 근거합니다. 첫째, 현재 SLM이 보여주는 능력 수준, 둘째, 에이전트 시스템이 일반적으로 채택하는 아키텍처, 그리고 셋째, 언어 모델 배포와 관련된 경제성입니다.</p><p>범용적인 대화 능력이 필수적으로 요구되는 상황이라면, 이기종 <strong>에이전트 시스템(heterogeneous agentic systems)</strong>, 즉 필요에 따라 여러 종류의 모델들을 조합하여 호출하는 에이전트가 가장 자연스럽고 합리적인 선택이 될 것이라고 이야기합니다.</p><div data-embed-url="https://youtu.be/9xgRTznP21E" data-id="yhuB3Y8cTMMyUd0dzWCGd" data-type="embed"></div><h2 class="text-xl" data-toc-id="c384433e-edb4-465a-b1d6-5bb717a053be" id="c384433e-edb4-465a-b1d6-5bb717a053be">논문의 핵심 요점들</h2><p>논문에서는 소형 언어 모델(SLM, 일반적으로 <strong>100억 개 미만의 매개변수</strong>를 가진 모델)이 에이전트 AI의 미래가 될 것이라는 입장을 세 가지 주요 근거를 들어 설명합니다.</p><ol><li><p><strong>이미 충분히 강력합니다:</strong> SLM은 에이전트가 수행하는 많은 '잡일(errands)'에 대해 이미 충분한 성능을 보여줍니다. 특히, <strong>도구 호출(tool-calling), 구조화된 추론, 코드 기반의 작업 조정</strong>과 같은 특정 영역에서는 대형 언어 모델(LLM)과 비슷하거나 더 나은 성능을 보이기도 합니다.</p></li><li><p><strong>본질적으로 더 적합합니다:</strong> 에이전트 시스템은 '의사 결정/계획'을 담당하는 부분(LLM이 유리)과 '코드에 의한 조정/특정 언어 작업'을 담당하는 부분(SLM이 유리)으로 분리되는 경향이 있습니다. SLM은 후자의 반복적이고 집중적인 작업에 본질적으로 더 적합합니다.</p></li><li><p><strong>더욱 경제적입니다:</strong> SLM은 추론 비용이 LLM보다 <strong>10배에서 30배</strong>까지 저렴할 수 있습니다. 또한, 특정 역할에 맞게 미세 조정(Fine-tuning)하는 비용도 훨씬 저렴하여, 지속 가능하고 마진 친화적인 배포를 가능하게 합니다.</p></li></ol><h2 class="text-xl" data-toc-id="34996b57-6a70-4082-b01f-8163fcfc33f7" id="34996b57-6a70-4082-b01f-8163fcfc33f7">발표 하이라이트</h2><p>Peter Belcak는 자신이 발표한 논문이 엔비디아 리서치 내 딥러닝 효율성 연구 그룹의 공동 작업임을 밝히며 이야기를 시작했습니다. 이 논문은 새로운 벤치마크를 제시하기보다는, 축적된 관찰 결과와 증거를 통합한 논문의 성격을 가진다고 설명했습니다. 그는 소형 언어 모델(SLM)이 에이전트가 요구하는 다양한 작업에 <strong>충분히 강력</strong>하고, 에이전트 시스템에 <strong>본질적으로 더 적합</strong>하며, 결정적으로 <strong>더 경제적</strong>이라는 세 가지 핵심 축을 중심으로 <strong>SLM이 에이전트 AI의 미래</strong>가 될 것이라는 입장을 확고히 했습니다.</p><h2 class="text-xl" data-toc-id="e62f14fe-5741-412e-a071-b7584efa8abf" id="e62f14fe-5741-412e-a071-b7584efa8abf">연구를 추진한 동기: 경제성과 하드웨어 효율성</h2><p>이 연구를 이끈 동기는 크게 두 가지였습니다. 첫째는 <strong>기업 고객들의 요구</strong>였습니다. 많은 기업들이 시장을 선점한 후 이제는 <strong>마진을 최적화</strong>하는 단계에 들어섰기 때문에, 더 낮은 비용과 지연 시간으로 기존과 같거나 더 나은 결과를 제공하는 솔루션을 간절히 원하고 있습니다. 둘째, 에이전트 AI 분야가 안정화되면서 사람들이 검증된 패턴으로 수렴하고 있다는 점입니다. 이를 통해 연구팀은 작은 모델이 시스템 내에서 효율적으로 작동할 수 있는 지점을 구체적으로 파악할 수 있었습니다.</p><p>하드웨어 측면에서 보면, <strong>특화된 추론 칩과 최적화된 런타임</strong>의 발전은 비용 계산 방식을 완전히 바꾸었습니다. 효율성을 극대화하여 GPU를 완전히 활용할 경우, SLM의 추론 비용은 LLM 대비 토큰당 <strong>극적으로 저렴</strong>해질 수 있습니다. 또한, SLM 미세 조정(Fine-tuning) 비용이 상대적으로 낮아, 대형 모델의 막대한 훈련 비용 대신 품질 목표를 향해 여러 번 반복적인 개선 작업을 저렴하게 수행할 수 있다는 장점이 있습니다. 참고로, 에이전트 활용의 목적에서 소형 언어 모델은 <strong>대략 100억 개 미만의 매개변수</strong>를 가진 모델로 정의하는 것이 적절하다고 설명했습니다.</p><h2 class="text-xl" data-toc-id="940ee717-4975-4c1d-9c26-ea4f2c142d9a" id="940ee717-4975-4c1d-9c26-ea4f2c142d9a">'소형' 언어 모델의 기준</h2><p>소형 언어 모델의 정확한 기준에 대해, 벨카 연구원은 에이전트 활용이라는 목적을 염두에 둘 때, <strong>대략 100억 개 미만의 매개변수</strong>를 가진 모델을 '소형'이라고 부르는 것이 적절하다고 설명했습니다. 물론 아키텍처나 배포 환경의 제약 조건에 따라 미묘한 차이는 발생할 수 있으나, 이 '100억 개 미만'이라는 범위가 논의의 대부분을 포괄하는 유용한 작업 범위라고 덧붙였습니다.</p><figure data-align="center" data-size="best-fit" data-id="wgxC5lmn9uRcMKbIRRjcw" data-version="v2" data-type="image"><img data-id="wgxC5lmn9uRcMKbIRRjcw" src="https://tribe-s3-production.imgix.net/wgxC5lmn9uRcMKbIRRjcw?auto=compress,format"></figure><h2 class="text-xl" data-toc-id="6321e8b1-87ea-4036-bc93-2b3b53e314a6" id="6321e8b1-87ea-4036-bc93-2b3b53e314a6"> 아키텍처: 결정 계층 대 코드 조정</h2><p>Peter Belcak는 많은 사람들이 '에이전트'라고 말할 때, 언어 모델(LM)이 모든 것을 스스로 결정하고 처리하는 것, 즉 어떤 도구를 호출하고, 언제 호출하며, 맥락을 어떻게 연결할지까지 모두 담당하는 모습을 상상한다고 지적합니다.</p><p>그러나 실제 프로덕션 환경, 특히 프로세스가 이미 잘 확립된 곳에서는 작업의 많은 부분이 코드를 통해 조정 된다는 현실을 강조했습니다. 즉, 엄격하게 정의된 프로세스가 실행되는 중에, LM은 분류, 추출, 재작성, 요약, 일상적인 Q&amp;A와 같은 <strong>언어 관련 심부름</strong>이나 자연스러운 상호 작용 생성을 위해 <strong>지정된 지점</strong>에서만 호출되는 방식입니다.</p><p>따라서 그는 에이전트 시스템의 역할을 두 가지 영역으로 명확히 구분했습니다.</p><p>첫째는 범용적인 추론 능력으로부터 진정한 이득을 얻는 <strong>'결정/계획 (LM 에이전시)'</strong> 영역이며, 둘째는 소프트웨어의 안내에 따라 결정론적이거나 범위가 명확한 단계에서 LM이 집중적인 하위 작업을 수행하는 <strong>'코드 에이전시/조정'</strong> 영역입니다.</p><figure data-align="center" data-size="best-fit" data-id="26zSeakNrRUwjIbdA2QgI" data-version="v2" data-type="image"><img data-id="26zSeakNrRUwjIbdA2QgI" src="https://tribe-s3-production.imgix.net/26zSeakNrRUwjIbdA2QgI?auto=compress,format"></figure><p></p><h2 class="text-xl" data-toc-id="7e035285-8b76-4ba4-8f10-6ba13bdf9519" id="7e035285-8b76-4ba4-8f10-6ba13bdf9519">SLM이 에이전트 그래프와 벤치마크에서 승리하는 지점</h2><p>Peter Belcak는 구체적으로 에이전트 그래프 내에 20억에서 90억 매개변수 모델이 특정 벤치마크와 작업에서 더 큰 모델과 필적하거나 능가할 수 있는 '지점'이 있고, 특히 도구 호출, 구조화된 추출, 템플릿 기반 생성, 그리고 가벼운 미세 조정이 유효한 짧은 맥락 추론에서 강점을 보인다고 강조 했습니다.</p><p>그는 현재의 일반적인 패턴(범용 LLM을 선택하고 일부 기능에 집중하는 방식)을 뒤집어야 한다고 제안했습니다. 즉, 수행해야 할 작업을 먼저 식별하고 그 작업에 탁월한 SLM을 투입한 후 미세 조정하는 방식으로 접근할 것을 권장했습니다.</p><h2 class="text-xl" data-toc-id="79f232a9-734f-4846-89fb-0a05ee238050" id="79f232a9-734f-4846-89fb-0a05ee238050">비용, Fine-Tuning 및 배포 고려 사항</h2><p>Peter Belcak는 SLM의 경제성은 강력한 도입 근거가 될 수 있고 일반적으로, GPU를 포화 상태로 유지할 경우 SLM의 토큰당 추론 비용은 LLM보다 보통 한 자릿수(종종 10배에서 30배) 더 낮을 수 있다고 강조했습니다. 물론 배치 처리, 하드웨어 등 정확한 수치에 따라 다르지만, 전반적으로 훨씬 경제적이라는 의견을 피력했습니다.</p><p>SLM의 Fine-Tuning은 비용이 저렴하기 때문에, 목표 품질에 도달하기 위해 여러 번의 짧은 반복 주기를 부담 없이 실행할 수 있습니다. 이는 LLM의 경우 일반 미세 조정 비용이 워낙 높아, 팀들이 특화된 작업에 대해 안정적인 성능 개선을 보장하기 어려운 프롬프트 기반 적응 방식에만 의존하게 되는 한계를 효과적으로 극복할 수 있게 해줍니다.</p><h2 class="text-xl" data-toc-id="e3d2dbd0-96b6-4bf0-86ba-04875ee3e9a2" id="e3d2dbd0-96b6-4bf0-86ba-04875ee3e9a2">엣지 및 온디바이스 활용 사례</h2><p>SLM은 센서, 카메라, PC, 휴대폰 등 대형 모델이 비실용적인 환경인 <strong>엣지(Edge) 및 온디바이스 배포</strong>의 문을 열어줍니다. 대화형 에이전트나 기타 경량 언어 구성 요소는 더 나은 개인 정보 보호 및 낮은 지연 시간으로 로컬에서 실행될 수 있으며, 백엔드 시스템은 정말 무거운 작업을 위해 필요할 때만 더 큰 모델을 예약하여 사용하게 됩니다.</p><h3 class="text-lg" data-toc-id="eb29c40a-241e-4d0b-8f3d-56b1ff7f1076" id="eb29c40a-241e-4d0b-8f3d-56b1ff7f1076">실용적인 워크플로우: 크게 시작하여 작게 전문화하기</h3><p>Peter Belcak는 현장에서 실제로 효과가 있음을 확인한 <strong>실용적인 접근 방식</strong>을 다음과 같이 제시했습니다.</p><p>우선, 강력한 범용 모델을 활용하여 프로토타입을 제작함으로써 전체 작업 흐름을 파악하고 발생 가능한 실패 모드를 미리 확인해야 합니다. 그 다음 단계에서는 가장 병목 현상이 발생하는 지점을 도메인 데이터로 미세 조정된 <strong>전문화된 SLM</strong>으로 대체합니다. 이후, SLM을 저렴한 비용으로 반복 조정하는 과정을 거쳐 최종적인 품질 및 지연 시간 목표를 달성합니다.</p><p>궁극적으로 그는, 일반적이고 반복적인 작업에는 SLM을 사용하고, 정말 어렵고 범용적인 결정이 필요한 순간을 위해서만 LLM을 남겨두는 이기종 스택(heterogeneous stack)을 유지해야 한다고 조언했습니다.</p><h2 class="text-xl" data-toc-id="86e4d780-bdcd-46ed-80ea-04ed13070b19" id="86e4d780-bdcd-46ed-80ea-04ed13070b19"><strong>소형 언어 모델의 미래에 대한 질의응답</strong></h2><p>이어지는 질의응답 세션에서 Peter Belcak는 다음과 같이 핵심 입장을 재확인했습니다.</p><ul><li><p><strong>'소형' 언어 모델의 기준:</strong> 에이전트 활용을 위해서는 <strong>약 100억 개 미만의 매개변수</strong>가 적절한 작동 정의이며, 대부분의 논의를 포괄하는 유용한 작업 범위입니다.</p></li><li><p><strong>온디바이스 실행 필수 여부:</strong> '소형'이라는 개념은 온디바이스 실행 요구 사항이 아니라 <strong>능력과 효율성</strong>에 관한 것입니다. 다만, 많은 SLM이 소비자급 하드웨어에서 로컬 실행이 <strong>가능</strong>하다는 점이 개인 정보 보호 및 지연 시간 측면에서 매력적입니다.</p></li><li><p><strong>편향 및 안전 문제 완화:</strong> 두 가지 방식을 제시했습니다. (1) <strong>데이터</strong>: 후속 훈련 및 평가에 적절하게 정제되고 검증된 데이터를 사용합니다. (2) <strong>시스템 설계</strong>: 모델 자체에만 의존하지 않고, 검색, 도구, 검사 및 안전 장치로 시스템을 보완하여 모델의 단점을 완화해야 합니다.</p></li><li><p><strong>도구 호출 능력:</strong> 많은 SLM이 에이전트가 시간을 많이 할애하는 <strong>도구 호출</strong> 및 구조화된 출력에 강점을 보입니다. 적절한 프롬프트와 스키마 인지 평가만 있다면, 표준적인 도구 실행이 가능합니다.</p></li><li><p><strong>경험적 증거 유무:</strong> 이 논문은 시스템 작업을 아우르는 관찰, 결과 및 참고 문헌을 종합한 포지션 페이퍼 이며, 자세한 내용은 arXiv 논문을 통해 참고 문헌을 확인할 수 있습니다.</p></li></ul><h2 class="text-xl" data-toc-id="211bb3c1-5f32-48c8-bc70-1db1f3b0cd9b" id="211bb3c1-5f32-48c8-bc70-1db1f3b0cd9b">인사이트: SLM이 주도하는 에이전트 AI의 미래 전략</h2><p>이 블로그 게시글을 통해 얻을 수 있는 핵심 인사이트는, 비용 효율성과 성능을 극대화하기 위해 대규모 언어 모델(LLM)에 대한 의존도를 줄이고 소형 언어 모델(SLM)을 적극적으로 활용하는 <strong>실용적인 에이전트 시스템 구축 전략</strong>입니다.</p><p>SLM은 이미 도구 호출이나 구조화된 추출과 같은 특정 작업에서 LLM과 필적하거나 우수한 성능을 보여주며, 추론 비용이 LLM 대비 10~30배 저렴합니다. 따라서 모든 작업을 하나의 대규모 모델에 맡기기보다는, <strong>'결정/계획'</strong>과 같은 핵심적인 부분에만 범용 LLM을 남겨두고, 반복적이고 구체적인 작업에는 <strong>저렴하게 미세 조정된 전문 SLM</strong>을 배치하는 <strong>하이브리드 시스템(이질적인 스택)</strong>을 구성하는 것이 미래 에이전트 AI의 핵심 전략입니다. 이러한 SLM 중심의 효율화는 기업의 마진 최적화와 더불어, 엣지 컴퓨팅 환경에서의 온디바이스 배포를 가능하게 하는 실질적인 이점을 제공합니다.</p><p>특히, 이처럼 다양한 모델을 조합하는 하이브리드 시스템에서는 <strong>평가(Evaluation)</strong>가 매우 중요하게 작용합니다. SLM을 특정 작업에 맞춰 미세 조정하고 대체할 때, <strong>스키마 인지 평가</strong>와 같은 정교한 평가를 통해 SLM이 해당 <strong>특정 임무</strong>에서 목표 품질을 달성했는지 정확히 확인하고 반복적으로 개선해야 합니다. 또한, SLM의 잠재적인 단점(편향 및 안전 문제)을 완화하기 위해 시스템 차원의 검증 및 안전 장치와 함께 <strong>적절히 정제된 데이터를 통한 평가</strong> 역시 필수적인 구성 요소로 강조됩니다.</p><p>결론적으로, 이 논문은 단순히 SLM의 장점을 나열하는 것을 넘어, 효율성, 경제성, 그리고 엄격한 <strong>평가 및 설계</strong>를 기반으로 <strong>'크게 시작하여 작게 전문화하는'</strong> 새로운 에이전트 개발 및 배포의 실질적인 로드맵을 제시하고 있습니다.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[AI 웨비나 시리즈 #1 - ChatGPT로는 불가능한 일을 Agent로 해결하기]]></title>
            <description><![CDATA[ARIZE AI 웨비나 시리즈 #1: CHATGPT로는 불가능한 일을 AGENT로 해결하기

AI 에이전트 개발의 핵심 개념과 실전 구축 사례를 공유하는 시간에 초대합니다.

배경

ChatGPT가 일상화되면서 많은 기업들이 AI 도입을 시도하지만, 곧 한계를 마주합니다.

 * 단순 질의응답을 넘어 복잡한 업무 프로세스를 자동화하고 싶은데 방법을 모르고,

 * 여러 시스템...]]></description>
            <link>https://www.arizekorea.com/events-qihd1cz2/post/ai-webinar-series-1-achieving-tasks-that-chatgpt-cannot-with-agents-xTtudCZuHVAzJ5s</link>
            <guid isPermaLink="true">https://www.arizekorea.com/events-qihd1cz2/post/ai-webinar-series-1-achieving-tasks-that-chatgpt-cannot-with-agents-xTtudCZuHVAzJ5s</guid>
            <category><![CDATA[AI Agent]]></category>
            <category><![CDATA[ArizeAI]]></category>
            <category><![CDATA[Dify]]></category>
            <dc:creator><![CDATA[Sean Lee]]></dc:creator>
            <pubDate>Thu, 02 Oct 2025 06:39:38 GMT</pubDate>
            <content:encoded><![CDATA[<h2 class="text-xl" data-toc-id="db2fdcdc-47d0-474a-97ef-ecf86b2379e0" id="db2fdcdc-47d0-474a-97ef-ecf86b2379e0"><strong>Arize AI 웨비나 시리즈 #1: ChatGPT로는 불가능한 일을 Agent로 해결하기</strong></h2><p>​AI 에이전트 개발의 핵심 개념과 실전 구축 사례를 공유하는 시간에 초대합니다.</p><p>​<strong>배경</strong></p><p>​ChatGPT가 일상화되면서 많은 기업들이 AI 도입을 시도하지만, 곧 한계를 마주합니다.</p><ul><li><p>​단순 질의응답을 넘어 복잡한 업무 프로세스를 자동화하고 싶은데 방법을 모르고,</p></li><li><p>​여러 시스템과 연동하여 실시간으로 작업을 수행하는 AI를 만들고 싶지만 어디서부터 시작해야 할지 막막하고,</p></li><li><p>​코드를 직접 작성하지 않고도 AI가 자율적으로 문제를 해결하게 만들 수 있다는데 실체가 불분명합니다.</p></li></ul><p>​이제 필요한 것은 단순한 챗봇이 아니라 <strong>자율적으로 판단하고 실행하는 AI Agent</strong>입니다. Cursor, Palantir 같은 선도 기업들은 이미 Agent 기술로 업무 효율을 혁신하고 있으며, 국내에서도 Dify를 활용한 Agent 구축 사례가 등장하고 있습니다.</p><p>​이번 웨비나에서는:</p><ul><li><p>​ChatGPT와 Agent의 근본적인 차이점과 Agent가 필요한 이유를 명확히 이해하고,</p></li><li><p>​Cursor(AI 코딩 어시스턴트), Palantir(엔터프라이즈 데이터 플랫폼) 등 글로벌 성공 사례를 분석하며,</p></li><li><p>​Dify를 활용한 실전 Agent 구축 과정을 라이브 데모와 함께 체험합니다.</p></li></ul><p>​<strong>시리즈 목표</strong></p><p>​Arize AI 웨비나 시리즈는 AI 기술을 실무에 적용하려는 기업들에게 검증된 방법론과 실전 노하우를 전달합니다. 이론과 실무, 글로벌 벤치마크와 국내 적용 사례를 균형있게 다루며, 참가자들이 자신의 조직에서 바로 활용할 수 있는 구체적인 인사이트를 제공합니다.</p><hr><h2 class="text-xl" data-toc-id="a256880e-f0e1-4b5d-8ec0-0b1dea7e6601" id="a256880e-f0e1-4b5d-8ec0-0b1dea7e6601"><strong>​웨비나 아젠다 (총 120분)</strong></h2><p>​<strong>14:00 – 14:10 (10분)</strong> | 오프닝 &amp; 웨비나 소개</p><ul><li><p>​연사 소개</p></li><li><p>​세션 개요 및 학습 목표</p></li><li><p>​참여 방법 안내</p></li></ul><p>​<strong>14:10 – 15:00 (50분)</strong> | Part 1: ChatGPT를 넘어 Agent로 - 왜 지금 Agent인가?</p><ul><li><p>​ChatGPT의 한계: 반응형 AI vs 자율형 AI</p></li><li><p>​Agent의 핵심 개념: 목표 설정, 계획 수립, 도구 사용, 실행, 피드백 루프</p></li><li><p>​Agent가 해결하는 실무 문제들</p></li><li><p>​Dify를 활용한 Agent 구축 실전 사례</p><ul><li><p>​No-code/Low-code로 Agent 만들기</p></li><li><p>​워크플로우 설계 및 도구 연동</p></li><li><p>​실제 구현 라이브 데모</p></li><li><p>​구축 과정의 주요 고려사항</p></li></ul></li></ul><p>​<strong>15:00 – 15:10 (10분)</strong> | 휴식</p><p>​<strong>15:10 – 15:40 (30분)</strong> | Part 2: 성공 기업 사례 분석 - Cursor, Palantir</p><ul><li><p>​<strong>Cursor</strong>: AI Agent 기반 코딩 어시스턴트</p><ul><li><p>​단순 자동완성을 넘어 자율적 코드 생성</p></li><li><p>​Agent 아키텍처 분석</p></li><li><p>​개발자 생산성 향상 사례</p></li></ul></li><li><p>​<strong>Palantir</strong>: 엔터프라이즈 데이터 플랫폼의 Agent 활용</p><ul><li><p>​복잡한 데이터 분석을 Agent로 자동화</p></li><li><p>​의사결정 지원 Agent 사례</p></li><li><p>​대규모 조직에서의 Agent 운영 전략</p></li></ul></li></ul><p>​<strong>15:40 – 15:50 (10분)</strong> | 핵심 내용 요약 및 마무리</p><ul><li><p>​Agent 도입 로드맵</p></li><li><p>​시작 단계별 체크리스트</p></li><li><p>​추가 자료 및 연락처 안내</p></li></ul><p>​<strong>15:50 – 16:10 (20분)</strong> | Q&amp;A</p><ul><li><p>​사전 질문 답변</p></li><li><p>​실시간 질의응답</p></li></ul><p>​<strong>16:10</strong> | 종료</p>]]></content:encoded>
        </item>
    </channel>
</rss>