


비유 핵심: 소뇌가 '타고난 반사 신경'을 담당하듯, 베이스 모델은 광범위한 사전학습으로 학습되지 않은 상태에서도 상당한 기본 능력을 발휘합니다.

비유 핵심: 신피질이 후천적 추론·언어 능력을 제공하듯, 심층신경망은 다층 신경망으로 고차원 추론 능력을 발휘 합니다.

비유 핵심: Full Fine-Tuning이 "뇌 전체 회로 재구성"이라면, PRFT는 "필요한 회로만 빠르게 보강"하는 가소성 메커니즘입니다.

비유 핵심: 생명의 출현과 같이, 모델도 "우연히 딱 맞는" 파라미터 조합이 있어야만 의미 있는 언어 능력을 얻게 됩니다.



예측 코딩은 “뇌가 세상을 미리 예측하고, 실제 신호와의 오차만 처리해 모델을 계속 업데이트하는” 똑똑한 정보 처리 방식입니다.



LTP( Long-Term Potentiation): 장기 강화(LTP)는 시냅스의 효율성을 지속적으로 증가시키는 신경 가소성의 한 형태로, 학습과 기억 형성의 기초가 됩니다. 이를 통해 신피질은 신속하고 효율적으로 정보를 저장하고 처리할 수 있습니다.LTD( Long-Term Depression): 장기 약화(LTD)는 시냅스 강도를 감소시키는 과정으로, 불필요한 정보나 과잉 학습을 조절하여 신경망의 효율성을 유지하는 데 기여합니다. 이 두 가지 신경 가소성 메커니즘은 최적의 기억 저장과 정보 처리를 가능하게 합니다.











