Pinned트랜스포머 리버스 엔지니어링으로 In-context Learning 이해하기지난 4월 글에서 예상한 것처럼 Anthropic과 OpenAI 각각 두 달이 지나지 않아 대표 플래그십 모델의 뉴런 분석을 진행했습니다.Jun 30Jun 30
PinnedSuperposition Hypothesis for steering LLM with Sparse AutoEncoderWhat if OpenAI could control the responses of ChatGPT, a chatbot with a billion users? Imagine subtly incorporating advertisements into…Apr 9Apr 9
PinnedPC와 스마트폰, 그 다음은?하나의 제품이 사람들의 삶에 변화를 가져다 주면서, 새로운 시장을 열고, 막대한 부까지 창출해낸 경우는 많지 않습니다. 그 중에서 최근까지 우리에게 큰 영향을 주고 있는 두 제품이 유튜브나 앱스토어같은 거대 IT 플랫폼 형성에 준 영향을 분석해…Sep 27, 2021Sep 27, 2021
Reversing Transformer to understand In-context Learning with Phase change & Feature dimensionalityChatGPT is as smart as it is frustrating at times. This is true for LLM research as well.Apr 21Apr 21
🧠 ChatGPT의 답변 조종을 위한 Superposition Hypothesis10억명의 사용자를 가진 ChatGPT의 답변을 조종할 수 있다면 어떨까요? 가령 대화에 은근슬쩍 광고를 끼워 넣는다거나, 선거에 영향을 줄 수도 있겠죠. 이렇게 AI에 대한 인간의 개입 능력이 생긴다면, 이는 분명 엄청난 권력입니다.Apr 101Apr 101
Build web service with Handbag CycleThe Web is the most successful and well-maintained non-OS platform which has an ecosystem with unprecedently good compatibility. For…Mar 1, 2022Mar 1, 2022
개인과 조직은 생산성을 어떻게 올릴 수 있을까?생산성은 시간당 목표 결과에 대한 성과입니다. 그러므로 생산성이 높기 위해선 무조건 일을 빨리 처리해야 하는 것도 아니고, 성과에만 치중해서도 안됩니다. 우리는 생산성을 위해 시간과 결과 사이의 trade-off 관계를 잘 파악해서 노력을 잘…Dec 10, 2021Dec 10, 2021