<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en"><generator uri="https://jekyllrb.com/" version="3.10.0">Jekyll</generator><link href="https://kafkapple.github.io/feed.xml" rel="self" type="application/atom+xml" /><link href="https://kafkapple.github.io/" rel="alternate" type="text/html" hreflang="en" /><updated>2026-05-02T16:26:49+00:00</updated><id>https://kafkapple.github.io/feed.xml</id><title type="html">Jungjoon Park</title><subtitle>NeuroAI researcher at KAIST AMILab. Using insights from cognitive and social neuroscience to study biological intelligence and build AI systems that generalize.
</subtitle><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><entry><title type="html">251120_TIL_3D GS</title><link href="https://kafkapple.github.io/til/2025-11-20-TIL-3D-GS/" rel="alternate" type="text/html" title="251120_TIL_3D GS" /><published>2025-11-20T00:00:00+00:00</published><updated>2025-11-20T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-3D-GS</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-11-20-TIL-3D-GS/"><![CDATA[<ul>
  <li>SfM (e.g., COLMAP): sparse reconstruction pipeline
    <ul>
      <li>camera params
        <ul>
          <li>intrinsic : K</li>
          <li>extrinsic, R, t</li>
        </ul>
      </li>
      <li>
        <h2 id="sparse-point-cloud">sparse point cloud</h2>
      </li>
    </ul>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[SfM (e.g., COLMAP): sparse reconstruction pipeline camera params intrinsic : K extrinsic, R, t sparse point cloud]]></summary></entry><entry><title type="html">251015_TIL_GPU Process type</title><link href="https://kafkapple.github.io/til/2025-10-15-TIL-GPU-Process-type/" rel="alternate" type="text/html" title="251015_TIL_GPU Process type" /><published>2025-10-15T00:00:00+00:00</published><updated>2025-10-15T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-GPU-Process-type</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-10-15-TIL-GPU-Process-type/"><![CDATA[<h1 id="-gpu-process-type-analysis">📄 GPU Process Type Analysis</h1>

<h2 id="1-gpu-프로세스-타입-개념">1. GPU 프로세스 타입 개념</h2>

<h3 id="11-기본-타입-분류">1.1 기본 타입 분류</h3>

<ul>
  <li><strong>C(Compute)</strong>: GPU의 연산 자원(CUDA 등)만 활용.</li>
  <li><strong>G(Graphics)</strong>: 그래픽 자원(OpenGL/DirectX 등)만 활용.</li>
  <li><strong>C+G(Compute+Graphics)</strong>: 연산(CUDA)과 그래픽(OpenGL 등) 자원을 모두 활용.</li>
</ul>

<h3 id="13-실전-구분-기준">1.3 실전 구분 기준</h3>

<ul>
  <li>동일한 python 프로세스라도 연산만 할 경우 <code class="language-plaintext highlighter-rouge">C</code>,<br />
그래픽까지 사용할 경우 <code class="language-plaintext highlighter-rouge">C+G</code>로 나타남.</li>
  <li>복합적 GPU 작업 환경에서 리소스 충돌(예, VRAM 부족) 원인 분석에 활용.</li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[📄 GPU Process Type Analysis]]></summary></entry><entry><title type="html">📄 FC_Layer_Multi_Dimensional_Input</title><link href="https://kafkapple.github.io/til/2025-07-27-TIL-FC-Layer-Multi-Dimensional-Input/" rel="alternate" type="text/html" title="📄 FC_Layer_Multi_Dimensional_Input" /><published>2025-07-27T00:00:00+00:00</published><updated>2025-07-27T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-FC-Layer-Multi-Dimensional-Input</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-27-TIL-FC-Layer-Multi-Dimensional-Input/"><![CDATA[<p>FC(Dense) 레이어는 다차원 텐서 입력을 직접 처리하지 않으며, 이는 파라미터 폭증 문제와 프레임워크 설계 원칙에 기인</p>

<h3 id="1-fc-레이어의-입력-제약">1. FC 레이어의 입력 제약</h3>

<h4 id="11-입력-형식-제한">1.1 입력 형식 제한</h4>

<ul>
  <li>
    <p>1차원 벡터 입력: FC 레이어는 기본적으로 1차원 벡터 또는 2차원([batch, features]) 형태의 입력을 처리.</p>
  </li>
  <li>
    <p>자동 Flatten 또는 명시적 Flatten: 다차원 텐서 입력 시 내부적으로 Flatten되거나 오류 발생.</p>
  </li>
</ul>

<h3 id="2-다차원-입력의-비효율성">2. 다차원 입력의 비효율성</h3>

<h4 id="21-파라미터-폭증-문제">2.1 파라미터 폭증 문제</h4>

<ul>
  <li>
    <p>내부적 Flatten 처리: 다차원 텐서 입력 시 모든 요소를 독립적인 입력 뉴런으로 간주하여 Flatten.</p>
  </li>
  <li>
    <p>기하급수적 파라미터 증가: 입력 차원 수에 따라 파라미터 수가 폭발적으로 증가 (예: 8x8x128 입력 -&gt; 2백만 개 이상 파라미터).</p>
  </li>
  <li>
    <p>오버피팅 및 메모리 문제: 과도한 파라미터로 인한 오버피팅 및 학습/추론 시 메모리 부족 발생.</p>
  </li>
</ul>

<h3 id="3-다차원-데이터-처리-전략">3. 다차원 데이터 처리 전략</h3>

<h4 id="31-차원-축소-및-특징-요약">3.1 차원 축소 및 특징 요약</h4>

<ul>
  <li>
    <p>Convolutional/Pooling 레이어 활용: 공간 구조 유지를 위한 컨볼루션 및 풀링 레이어 사용.</p>
  </li>
  <li>
    <p>GlobalAveragePooling: 다차원 텐서의 차원을 축소하고 특징을 요약하는 기법.</p>
  </li>
  <li>
    <p>Flatten 단계 필수: FC 레이어 연결 전 Flatten 등의 차원 변환 단계 필수.</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[FC(Dense) 레이어는 다차원 텐서 입력을 직접 처리하지 않으며, 이는 파라미터 폭증 문제와 프레임워크 설계 원칙에 기인]]></summary></entry><entry><title type="html">📄 The Tolman-Eichenbaum Machine: Unifying Space and Relational Memory</title><link href="https://kafkapple.github.io/til/2025-07-25-TIL-Tolman-Eichenbaum-Machine-Unifying-Space-and-Relational-Memory/" rel="alternate" type="text/html" title="📄 The Tolman-Eichenbaum Machine: Unifying Space and Relational Memory" /><published>2025-07-25T00:00:00+00:00</published><updated>2025-07-25T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-Tolman-Eichenbaum-Machine-Unifying-Space-and-Relational-Memory</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-25-TIL-Tolman-Eichenbaum-Machine-Unifying-Space-and-Relational-Memory/"><![CDATA[<p>Hippocampal Formation을 통한 공간 및 관계 기억의 일반화 메커니즘 이해</p>

<h3 id="1-기억-형성의-핵심-구성-요소">1. 기억 형성의 핵심 구성 요소</h3>

<h4 id="11-일반화된-추상-구조-g">1.1 일반화된 추상 구조 (G)</h4>

<ul>
  <li>
    <p>MEC (Medial Entorhinal Cortex) 역할</p>
  </li>
  <li>
    <p>‘a &gt; b’와 같은 추상적 관계 표현</p>
  </li>
  <li>
    <p>비공간적 정보(예: 사회 계층) 일반화 효율성</p>
  </li>
</ul>

<h4 id="12-구체적-감각-정보-x">1.2 구체적 감각 정보 (X)</h4>

<ul>
  <li>
    <p>외부 환경으로부터의 직접적인 감각 입력</p>
  </li>
  <li>
    <p>특정 시점, 특정 장소의 고유한 경험</p>
  </li>
</ul>

<h3 id="2-기억-패턴의-안정화-및-일반화">2. 기억 패턴의 안정화 및 일반화</h3>

<h4 id="21-구체-기억-형성-p">2.1 구체 기억 형성 (P)</h4>

<ul>
  <li>
    <p>해마(Hippocampus)에서의 초기 기억 인코딩</p>
  </li>
  <li>
    <p>G와 X의 통합을 통한 패턴 형성</p>
  </li>
</ul>

<h4 id="22-반복-경험과-기억-안정화">2.2 반복 경험과 기억 안정화</h4>

<ul>
  <li>
    <p>G+X 결합의 반복적 노출</p>
  </li>
  <li>
    <p>Attractor Network를 통한 기억 패턴 안정화</p>
  </li>
  <li>
    <p>‘기억 골짜기’ 심화: 새로운 입력 시 유사 패턴으로 수렴</p>
  </li>
</ul>

<h3 id="3-기억의-일반화-및-활용">3. 기억의 일반화 및 활용</h3>

<h4 id="31-기억-골짜기-형성">3.1 기억 골짜기 형성</h4>

<ul>
  <li>
    <p>반복 학습을 통한 기억 패턴의 견고화</p>
  </li>
  <li>
    <p>새로운 유사 입력에 대한 빠른 인식 및 분류</p>
  </li>
</ul>

<h4 id="32-비공간-정보의-일반화">3.2 비공간 정보의 일반화</h4>

<ul>
  <li>
    <p>사회 계층과 같은 추상적 관계에도 적용 가능</p>
  </li>
  <li>
    <p>효율적인 정보 처리 및 예측 능력 향상</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[Hippocampal Formation을 통한 공간 및 관계 기억의 일반화 메커니즘 이해]]></summary></entry><entry><title type="html">전략 중재와 가치 통합 메커니즘</title><link href="https://kafkapple.github.io/til/2025-07-24-TIL-vl-vmPFC-%EC%8B%A0%EB%A2%B0%EB%8F%84%EC%A4%91%EC%9E%AC-%EA%B0%80%EC%B9%98%ED%86%B5%ED%95%A9/" rel="alternate" type="text/html" title="전략 중재와 가치 통합 메커니즘" /><published>2025-07-24T00:00:00+00:00</published><updated>2025-07-24T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-vl-vmPFC-%EC%8B%A0%EB%A2%B0%EB%8F%84%EC%A4%91%EC%9E%AC-%EA%B0%80%EC%B9%98%ED%86%B5%ED%95%A9</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-24-TIL-vl-vmPFC-%EC%8B%A0%EB%A2%B0%EB%8F%84%EC%A4%91%EC%9E%AC-%EA%B0%80%EC%B9%98%ED%86%B5%ED%95%A9/"><![CDATA[<h2 id="vlpfc-전략-중재자-역할">vlPFC: 전략 중재자 역할</h2>

<ul>
  <li>
    <p><strong>핵심</strong>: vlPFC, model-based, model-free 두 시스템 신뢰도 비교 및 중재</p>
  </li>
  <li>원리: 각 전략의 신뢰도를 비교, 전략 가중치(w) 결정
    <h2 id="vmpfc-가치-통합과-계산">vmPFC: 가치 통합과 계산</h2>
  </li>
  <li>
    <p><strong>핵심</strong>: vmPFC, 가중치 기반 통합 가치 산출</p>
  </li>
  <li>
    <p>특징: vlPFC로부터 받은 전략 가중치를 반영해 최종 통합 가치 계산</p>
  </li>
  <li>연결: PE 기준선 조정에 따라 가치 표현 선명도 변화</li>
</ul>

<h2 id="환경-불확실성-및-pe-기준선">환경 불확실성 및 PE 기준선</h2>

<ul>
  <li>
    <p><strong>핵심</strong>: 예측 오차(PE) 기준선, 환경 불확실성 지표</p>
  </li>
  <li>
    <p>문제: 환경이 변동성이 커질 때 기존 전략 신뢰성 저하</p>
  </li>
  <li>
    <p>해법: PE 기준선 상승 시 모델 기반(MB) 시스템 의존 강화, 가치 계산 방식 조정</p>
  </li>
</ul>

<h2 id="가치-계산-방식-전환-신호">가치 계산 방식 전환 신호</h2>

<ul>
  <li>
    <p><strong>핵심</strong>: PE 기준선, vmPFC의 가치 표현 형태 결정 신호</p>
  </li>
  <li>
    <p>문제: 단순 합산(elemental)과 전체론적(configural) 계산 전환 필요성</p>
  </li>
  <li>
    <p>해법: PE 기준선이 복잡한 가치 계산 필요 시 vmPFC에 신호 제공</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[vlPFC: 전략 중재자 역할]]></summary></entry><entry><title type="html">Overfitting 대응 – Dropout, Batch Size, Filter</title><link href="https://kafkapple.github.io/til/2025-07-23-TIL-Overfitting-%EB%8C%80%EC%9D%91-Dropout-Batch-Size-Filter/" rel="alternate" type="text/html" title="Overfitting 대응 – Dropout, Batch Size, Filter" /><published>2025-07-23T00:00:00+00:00</published><updated>2025-07-23T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-Overfitting-%EB%8C%80%EC%9D%91-%E2%80%93-Dropout-Batch-Size-Filter</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-23-TIL-Overfitting-%EB%8C%80%EC%9D%91-Dropout-Batch-Size-Filter/"><![CDATA[<h2 id="dropout-rate-조절-">Dropout Rate 조절 ⭐⭐⭐</h2>

<ul>
  <li>
    <p><strong>정의</strong>: Dropout은 학습 시 뉴런을 임의로 비활성화하여 특정 패턴 의존을 줄이는 정규화 기법.</p>
  </li>
  <li>
    <p><strong>중요 이유</strong>: Dropout 비율을 높이면(random 비활성화) 모델의 복잡도 감소 → 과적합 현상(새로운 데이터 일반화 실패) 완화에 효과적.</p>
  </li>
  <li>
    <p><strong>핵심 요소</strong>:</p>
  </li>
  <li>
    <p>비율 증가 효과: dropout_rate를 0.2→0.5로 올리면 regularization이 강화됨.</p>
  </li>
  <li>
    <p>작동 원리: 학습마다 무작위로 뉴런을 off, 앙상블 효과로 모델 일반화 성능 개선.</p>
  </li>
  <li>
    <p><strong>연결</strong>: → Filter 수 감소와 병행 시 구조적 복잡도 조정 가능.</p>
  </li>
</ul>

<h2 id="batch-size-조정-">Batch Size 조정 ⭐⭐</h2>

<ul>
  <li>
    <p><strong>개요</strong>: Batch size는 파라미터가 업데이트되는 미니 배치 데이터의 크기로, 일반화와 학습 효율에 영향.</p>
  </li>
  <li>
    <p><strong>주요 특징</strong>:</p>
  </li>
  <li>
    <p>크기 증가 시: 더 평탄한 gradient 사용 → 데이터 특이치 민감도 감소, 초과 과적합 방지에 기여할 수 있음.</p>
  </li>
  <li>
    <p>실제 활용: 32→128 등 단계적 증대로 적정 범위 탐색(과대 설정 시 오히려 일반화 악화).</p>
  </li>
  <li>
    <p><strong>주의점</strong>: 지나치게 크면 학습 속도는 빨라지나 모델이 데이터 분포 세부 특성 파악에 실패할 수 있음.</p>
  </li>
</ul>

<h2 id="conv2d-filter-값-줄이기-">Conv2D Filter 값 줄이기 ⭐</h2>

<ul>
  <li>
    <p><strong>요약</strong>: 필터 개수를 줄이면 파라미터나 표현력 감소로 과적합 위험 줄어듦.</p>
  </li>
  <li>
    <p><strong>활용</strong>: 초기 filter1,2를 64→32 등으로 조정해 검증 성능관찰, 필요시 재조정.</p>
  </li>
  <li>
    <p><strong>참고</strong>: 너무 적게 줄일 경우 주요 feature 추출 성능 저하될 수 있음.</p>
  </li>
</ul>

<h2 id="핵심-연결고리">핵심 연결고리</h2>

<ul>
  <li>
    <p>Dropout 증가, Filter 감소 → 모델 복잡도 구조적 축소 → 과적합 저감</p>
  </li>
  <li>
    <p>Batch Size 증가는 학습 과정의 노이즈/평균값 조정 → 일반화 성능 유동적 변화</p>
  </li>
  <li>
    <p>전체 흐름: 하이퍼파라미터별 조정은 과적합 완화와 성능 저하(또는 과소적합) 위험 사이 trade-off 필요. 실험적으로 한 번에 하나씩 변경, 검증 데이터 기반으로 판단할 것.</p>
  </li>
  <li>
    <p>Dropout과 Filter 조정은 네트워크 구조 자체의 regularization 강화를, Batch Size 조정은 학습 프로세스 관점의 일반화 강화를 의미함.</p>
  </li>
  <li>
    <p>모든 파라미터 조정은 실험적 튜닝과 검증 셋 성능 관찰이 필수적임.</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[Dropout Rate 조절 ⭐⭐⭐]]></summary></entry><entry><title type="html">📄 Promptfoo_Delimiter_Understanding</title><link href="https://kafkapple.github.io/til/2025-07-23-TIL-Promptfoo-Delimiter-Understanding/" rel="alternate" type="text/html" title="📄 Promptfoo_Delimiter_Understanding" /><published>2025-07-23T00:00:00+00:00</published><updated>2025-07-23T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-Promptfoo-Delimiter-Understanding</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-23-TIL-Promptfoo-Delimiter-Understanding/"><![CDATA[<h2 id="-요약">✨ 요약</h2>

<p>Promptfoo에서 — 구분자가 프롬프트 파일을 여러 시나리오로 분리하는 기능을 이해하고, 이를 활용하거나 피하는 방법을 학습함.</p>

<h2 id="-학습-내용">📍 학습 내용</h2>

<h3 id="1-promptfoo-구분자-기능">1. Promptfoo 구분자 기능</h3>

<h4 id="11--구분자의-특별한-기능">1.1 — 구분자의 특별한 기능</h4>

<ul>
  <li>
    <p>—가 프롬프트 분리자로 작동함을 이해함</p>
  </li>
  <li>
    <p>Promptfoo가 —를 기준으로 파일을 독립적인 프롬프트 시나리오로 인식함을 파악함</p>
  </li>
  <li>
    <p>하나의 파일에서 여러 프롬프트 변형을 테스트할 때 유용함을 확인함</p>
  </li>
</ul>

<h3 id="2-문제-해결-및-대안">2. 문제 해결 및 대안</h3>

<h4 id="21-구분자-변경을-통한-문제-해결">2.1 구분자 변경을 통한 문제 해결</h4>

<ul>
  <li>
    <p>프롬프트 내용의 시각적 구분을 유지하는 방법을 모색함</p>
  </li>
  <li>
    <p>— 대신 ===나 *** 등 다른 마크다운 구분자를 사용할 수 있음을 인지함</p>
  </li>
  <li>
    <p>Promptfoo의 자동 분리 기능을 비활성화하는 방법을 습득함</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[✨ 요약]]></summary></entry><entry><title type="html">AmadeusGPT 이중 메모리 시스템 심층 분석 - 메모리 &amp;amp; 검색 강화</title><link href="https://kafkapple.github.io/til/2025-07-21-TIL-Dual-memory-system/" rel="alternate" type="text/html" title="AmadeusGPT 이중 메모리 시스템 심층 분석 - 메모리 &amp;amp; 검색 강화" /><published>2025-07-21T00:00:00+00:00</published><updated>2025-07-21T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-Dual-memory-system</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-21-TIL-Dual-memory-system/"><![CDATA[<h2 id="핵심-개념-1-amadeusgpt의-이중-메모리-시스템-">핵심 개념 1: AmadeusGPT의 이중 메모리 시스템 ⭐⭐⭐</h2>

<ul>
  <li>
    <p>정의: LLM의 제한된 컨텍스트 창으로 인한 ‘망각’ 문제를 해결하고, 장기적인 대화 연속성을 보장하기 위해 설계된 아키텍처</p>
  </li>
  <li>
    <p>중요성: 복잡한 행동 규칙, 변수 등 핵심 정보의 소실을 방지하고, 세션 재시작 시 작업 상태를 복원하여 장기 상호작용의 일관성 유지</p>
  </li>
  <li>
    <p>세부:</p>
  </li>
  <li>
    <p>단기 기억 (Short-Term Memory) ⭐⭐:</p>
  </li>
  <li>
    <p>구현: 동적 데크(dynamic deque) 자료 구조</p>
  </li>
  <li>
    <p>작동: 최신 대화 내용을 임시 저장하며, 토큰 한계 도달 시 오래된 내용 순차 삭제. 매 요청 시 LLM에 전달되어 현재 맥락 형성.</p>
  </li>
  <li>
    <p>역할: 현재 진행 중인 대화의 흐름 유지 및 즉각적인 상호작용 담당.</p>
  </li>
  <li>
    <p>장기 기억 (Long-Term Memory) ⭐⭐⭐:</p>
  </li>
  <li>
    <p>구현: RAM 상주 딕셔너리 형태, 필요시 디스크 저장으로 영속성 확보.</p>
  </li>
  <li>
    <table>
      <tbody>
        <tr>
          <td>쓰기: &lt;</td>
          <td>심볼_이름</td>
          <td>&gt; 사용 시 해당 맥락 전체를 ‘심볼_이름’으로 저장 (예: Define &lt;</td>
          <td>head_dips</td>
          <td>&gt;).</td>
        </tr>
      </tbody>
    </table>
  </li>
  <li>
    <p>읽기: <심볼_이름> 사용 시 저장된 정보를 단기 기억 맨 앞에 삽입, LLM이 핵심 전제로 인식.</심볼_이름></p>
  </li>
  <li>역할: 복잡한 행동 정의, 중요 변수, 반복 사용 규칙 등 핵심 정보 보호 및 세션 간 영속성 제공.</li>
</ul>

<h2 id="핵심-개념-2-최신-llm-메모리-활용-패러다임-">핵심 개념 2: 최신 LLM 메모리 활용 패러다임 ⭐⭐⭐</h2>

<ul>
  <li>
    <p>개요: AmadeusGPT 이중 메모리 시스템의 기반이 되는 두 가지 주요 LLM 메모리 활용 패러다임과 최적 활용 전략.</p>
  </li>
  <li>
    <p>특징:</p>
  </li>
  <li>
    <p>메모리 증강 생성 (Memory-Augmented Generation, MAG) ⭐⭐⭐:</p>
  </li>
  <li>
    <p>정의: 대화의 내부적, 동적인 맥락(이전 상호작용 기록)을 보존하여 연속성과 개인화를 목표. AmadeusGPT 이중 메모리 시스템과 일치.</p>
  </li>
  <li>
    <p>최적 활용법:</p>
  </li>
  <li>
    <table>
      <tbody>
        <tr>
          <td>복잡한 규칙/상태 저장: 분석 중 생성되는 복잡한 행동 정의(chase, huddle)나 ROI 설정값 등을 &lt;</td>
          <td>심볼_이름</td>
          <td>&gt;으로 장기 기억에 명시적 저장하여 분석 일관성 유지 및 반복 작업 감소.</td>
        </tr>
      </tbody>
    </table>
  </li>
  <li>
    <p>점진적 분석 구축: 간단한 분석 후 결과를 확인하고, 저장된 심볼을 &lt;&gt;로 불러와 더 복잡한 분석을 점진적으로 구축 (예: <chase> 이벤트 정의 후 "Plot trajectory during <chase>").</chase></chase></p>
  </li>
  <li>
    <p>검색 증강 생성 (Retrieval-Augmented Generation, RAG) ⭐⭐⭐:</p>
  </li>
  <li>
    <p>정의: LLM이 응답 생성 전, 위키피디아, 내부 문서 등 <strong>외부의 정적인 지식 소스</strong>를 검색하여 답변의 사실적 정확성과 신뢰도 향상. ‘환각’ 현상 감소에 효과적.</p>
  </li>
  <li>
    <p>최적 활용법 (AmadeusGPT와 결합 시):</p>
  </li>
  <li>
    <p>과학적 근거 확보: “의학 문헌에서 ‘생쥐의 얼어붙는 행동’ 정의 기준은?” 질문으로 RAG가 관련 논문 검색, 답변 제공 후 AmadeusGPT에 정확한 분석 명령.</p>
  </li>
  <li>
    <p>내부 문서/코드 검색: “우리 연구실의 표준 EPM 분석 프로토콜은?” 질문으로 내부 데이터베이스 검색, 분석 방향 설정 및 필요 정보 획득.</p>
  </li>
  <li>문제 해결/고객 지원: “L2 고객 지원팀의 자주 발생하는 문제 유형은?” 질문으로 과거 지원 티켓 검색, 문제 해결 우선순위 설정.</li>
</ul>

<h2 id="연결고리-">연결고리 ⭐⭐⭐</h2>

<ul>
  <li>
    <p>MAG ↔ RAG: AmadeusGPT의 이중 메모리 시스템(MAG)은 LLM의 내부적인 대화 맥락을 기억하게 하고, RAG는 외부의 검증된 지식을 통합하여 답변의 정확성을 높임.</p>
  </li>
  <li>
    <p>전체 흐름: <strong>하이브리드 워크플로우</strong>는 RAG를 통해 분석의 사실적 기반을 다지고, MAG를 통해 얻은 지식을 바탕으로 정교한 분석 규칙을 정의 및 저장하며, 저장된 규칙을 불러와 현재 분석에 적용함으로써 객관적 사실과 대화의 고유 맥락이 결합된 신뢰도 높은 결과물을 생성함.</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[핵심 개념 1: AmadeusGPT의 이중 메모리 시스템 ⭐⭐⭐]]></summary></entry><entry><title type="html">📄 Positioning Discrete-JEPA in World Model Discourse</title><link href="https://kafkapple.github.io/til/2025-07-20-TIL-JEPA-WorldModel-Positioning/" rel="alternate" type="text/html" title="📄 Positioning Discrete-JEPA in World Model Discourse" /><published>2025-07-20T00:00:00+00:00</published><updated>2025-07-20T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-JEPA-WorldModel-Positioning</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-20-TIL-JEPA-WorldModel-Positioning/"><![CDATA[<h2 id="-요약">✨ 요약</h2>

<p>2025년 5월 “월드 모델” 담론에서 Discrete-JEPA의 위치를 명확히 하고, 물리적/인과적 월드 모델(V-JEPA 2)과 상징적/논리적 월드 모델(Discrete-JEPA)의 차이 파악</p>

<h2 id="-학습-내용">📍 학습 내용</h2>

<h3 id="1-월드-모델-담론-이해">1. 월드 모델 담론 이해</h3>

<h4 id="11-현재-ai-연구-흐름-분석">1.1 현재 AI 연구 흐름 분석</h4>

<ul>
  <li>
    <p>“월드 모델” 개념을 중심으로 두 가지 주요 흐름이 존재함을 파악함.</p>
  </li>
  <li>
    <p>Meta의 V-JEPA 2가 물리적/인과적 월드 모델.</p>
  </li>
  <li>
    <p>Discrete-JEPA 이 상징적/논리적 월드 모델.</p>
  </li>
</ul>

<h3 id="2-discrete-jepa-포지셔닝-전략">2. Discrete-JEPA 포지셔닝 전략</h3>

<h4 id="21-혼동-방지-및-차별화">2.1 혼동 방지 및 차별화</h4>

<ul>
  <li>
    <p>Discrete-JEPA를 V-JEPA 2의 경쟁자가 아닌 상호보완적 접근법으로 프레이밍함.</p>
  </li>
  <li>
    <p>V-JEPA 2가 ‘어떻게(how)’ 작동하는지를 학습한다면, Discrete-JEPA는 ‘무엇(what)’이며 그 관계를 학습함을 명시함.</p>
  </li>
</ul>

<h3 id="3-학술적-기여-명확화">3. 학술적 기여 명확화</h3>

<h4 id="31-개념적-구분-및-정의">3.1 개념적 구분 및 정의</h4>

<ul>
  <li>
    <p>서론에서 ‘물리적/인과적 월드 모델’과 ‘상징적/논리적 월드 모델’을 명시적으로 구분하고 정의함.</p>
  </li>
  <li>
    <p>논문의 기여를 명확히 하고, 월드 모델에 대한 정교한 분류 체계를 제시함.</p>
  </li>
  <li>
    <p>학술적 담론을 한 단계 격상시키는 효과를 기대함.</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[✨ 요약]]></summary></entry><entry><title type="html">📄 Visual_Information_Bandwidth_vs_LLMs</title><link href="https://kafkapple.github.io/til/2025-07-20-TIL-Visual-Information-Bandwidth-vs-LLMs/" rel="alternate" type="text/html" title="📄 Visual_Information_Bandwidth_vs_LLMs" /><published>2025-07-20T00:00:00+00:00</published><updated>2025-07-20T00:00:00+00:00</updated><id>https://kafkapple.github.io/til/TIL-Visual-Information-Bandwidth-vs-LLMs</id><content type="html" xml:base="https://kafkapple.github.io/til/2025-07-20-TIL-Visual-Information-Bandwidth-vs-LLMs/"><![CDATA[<h2 id="-요약">✨ 요약</h2>

<p>얀 르쿤의 언급을 바탕으로, 4세 아동이 LLM보다 50배 더 많은 시각 정보를 처리한다는 주장을 데이터 대역폭 계산을 통해 분석함.
[[Visual_Information_Bandwidth_vs_LLMs - 얀 르쿤의 언급.]]</p>

<h2 id="-학습-내용">📍 학습 내용</h2>

<h3 id="1-llm-정보량-분석">1. LLM 정보량 분석</h3>

<h4 id="11-llm-훈련-데이터-규모">1.1 LLM 훈련 데이터 규모</h4>

<ul>
  <li>
    <p>최신 LLM은 약 1x10^13개의 2바이트 토큰(약 2x10^13 바이트)으로 훈련됨.</p>
  </li>
  <li>
    <p>이는 약 5x10^12 단어에 해당함.</p>
  </li>
</ul>

<h4 id="12-텍스트-데이터-처리-시간">1.2 텍스트 데이터 처리 시간</h4>

<ul>
  <li>
    <p>평균 독서 속도(250wpm)로 12시간/일 독서 시, LLM 훈련 데이터를 모두 읽는 데 약 76,000년이 소요됨.</p>
  </li>
  <li>
    <p>텍스트는 정보 대역폭이 낮음을 시사함.</p>
  </li>
</ul>

<h3 id="2-인간-시각-정보량-분석">2. 인간 시각 정보량 분석</h3>

<h4 id="21-시신경-정보-전달률">2.1 시신경 정보 전달률</h4>

<ul>
  <li>
    <p>인간은 두 개의 시신경을 가지며, 각 시신경은 약 10^6개의 신경 섬유를 포함함.</p>
  </li>
  <li>
    <p>각 신경 섬유는 초당 약 10바이트의 정보를 전달함.</p>
  </li>
</ul>

<h4 id="22-4세-아동의-시각-정보량">2.2 4세 아동의 시각 정보량</h4>

<ul>
  <li>
    <p>4세 아동의 총 깨어있는 시간은 약 57.6 x 10^6초로 추정됨.</p>
  </li>
  <li>
    <p>4년간 총 시각 정보량은 약 1.15 x 10^15 바이트로 계산됨.</p>
  </li>
</ul>

<h3 id="3-llm과-인간-시각-정보량-비교">3. LLM과 인간 시각 정보량 비교</h3>

<h4 id="31-정보-대역폭-차이">3.1 정보 대역폭 차이</h4>

<ul>
  <li>
    <p>4세 아동의 시각 정보량(1.15 x 10^15 바이트)은 LLM 훈련 데이터(2 x 10^13 바이트)보다 약 57.5배 많음.</p>
  </li>
  <li>
    <p>이는 얀 르쿤의 “50배” 언급과 일치함.</p>
  </li>
</ul>

<h4 id="32-시사점-및-한계">3.2 시사점 및 한계</h4>

<ul>
  <li>
    <p>언어는 저대역폭, 시각은 고대역폭 정보임을 확인함.</p>
  </li>
  <li>
    <p>차세대 파운데이션 모델은 시각/인지 기반이 되어야 할 필요성을 시사함.</p>
  </li>
  <li>
    <p>계산은 근사치이며, 신경과학적 세부 사항은 고려되지 않음.</p>
  </li>
</ul>]]></content><author><name>Jungjoon Park</name><email>biasdrive@gmail.com</email></author><category term="til" /><category term="TIL" /><summary type="html"><![CDATA[✨ 요약]]></summary></entry></feed>