머신러닝 모델은 구조가 너무 복잡해서 안을 들여다볼 수도 없고, 모델을 이용해 예측 값을 구해도 도대체 왜 그런 값이 나왔는지 알 수 없다는 특징이 있습니다. 내부가 촘촘하게 연결된 신경망 모형은 더욱 알 수 없어서 블랙박스 모형이라고도 합니다.
그런데 여러분, 모델 내부를 살펴보고 해석도 할 수 있는 기법들이 꾸준히 연구되어 왔다는 사실을 아시나요? 특히나 도무지 왜 때문에 그런 결과물을 내놓는지 알 수 없는 LLM이 끊임없이 등장하는 요즘, 모델을 이해하고 개선할 수 있게 도와주는 방법들이 엄청 활발하게 연구되고 있다고...
Published 05/26/24
직업계의 타노스인 거대언어모델(AI)이 나타난 이후 세상이 변하고 있습니다. 기능 발표 한번에 직업들이 우수수 사라지고, 업데이트 소식 한번에 기업들이 우수수 없어지고 있는 요즘인데요. 그때마다 박박사는 대체 왜 달라질게 없다고 했을까요? 박박사가 바라보는 관점에서는 대체 세상에 어떤 일이 벌어지고 있는 걸까요? 과연 박박사만의 생각하는 것일까요?
참고 링크
직업의 번들링: https://platforms.substack.com/p/ai-wont-eat-your-job-but-it-will
프리렌서 23년 시장분석:...
Published 05/12/24