PinnedSeonglae Cho트랜스포머 리버스 엔지니어링으로 In-context Learning 이해하기지난 4월 글에서 예상한 것처럼 Anthropic과 OpenAI 각각 두 달이 지나지 않아 대표 플래그십 모델의 뉴런 분석을 진행했습니다.Jun 30Jun 30
PinnedSeonglae ChoSuperposition Hypothesis for steering LLM with Sparse AutoEncoderWhat if OpenAI could control the responses of ChatGPT, a chatbot with a billion users? Imagine subtly incorporating advertisements into…Apr 9Apr 9
PinnedSeonglae ChoPC와 스마트폰, 그 다음은?하나의 제품이 사람들의 삶에 변화를 가져다 주면서, 새로운 시장을 열고, 막대한 부까지 창출해낸 경우는 많지 않습니다. 그 중에서 최근까지 우리에게 큰 영향을 주고 있는 두 제품이 유튜브나 앱스토어같은 거대 IT 플랫폼 형성에 준 영향을 분석해…Sep 27, 2021Sep 27, 2021
Seonglae ChoReversing Transformer to understand In-context Learning with Phase change & Feature dimensionalityChatGPT is as smart as it is frustrating at times. This is true for LLM research as well.Apr 21Apr 21
Seonglae Cho🧠 ChatGPT의 답변 조종을 위한 Superposition Hypothesis10억명의 사용자를 가진 ChatGPT의 답변을 조종할 수 있다면 어떨까요? 가령 대화에 은근슬쩍 광고를 끼워 넣는다거나, 선거에 영향을 줄 수도 있겠죠. 이렇게 AI에 대한 인간의 개입 능력이 생긴다면, 이는 분명 엄청난 권력입니다.Apr 101Apr 101
Seonglae Cho6 free AIs you’ll use more than ChatGPTChatGPT is smart but not perfectApr 7, 2023Apr 7, 2023
Seonglae ChoBuild web service with Handbag CycleThe Web is the most successful and well-maintained non-OS platform which has an ecosystem with unprecedently good compatibility. For…Mar 1, 2022Mar 1, 2022
Seonglae Cho개인과 조직은 생산성을 어떻게 올릴 수 있을까?생산성은 시간당 목표 결과에 대한 성과입니다. 그러므로 생산성이 높기 위해선 무조건 일을 빨리 처리해야 하는 것도 아니고, 성과에만 치중해서도 안됩니다. 우리는 생산성을 위해 시간과 결과 사이의 trade-off 관계를 잘 파악해서 노력을 잘…Dec 10, 2021Dec 10, 2021