본 커뮤니티의 모든 내용은 대중에게 공개된 정보를 기반으로 한 개인적인 뷰이며 투자에 대한 조언이 아닌 전반적인 미국 실리콘밸리에서 보는 시장, VC, 스타트업, 기술 트렌드에 대한 개인적인 의견들입니다.
유튜브, 링드인, 인스타그램, 스레드 등 다른 다양한 채널들을 보고 싶으시다면 위의 링크를 이용하시거나 컴퓨터에서 오른쪽에 “Social” 을 찾아봐주세요!
안녕하세요 이안입니다! 요즘 진짜 긴 뉴스레터 시리즈를 준비하고 있는데, 제가 너무 좋아하는 주제라 고민이 길어지네요 ㅠㅠ 그리고 저도 개인적으로 준비하는 프로젝트들이 많아서 잠깐 뉴스레터가 우선순위에서 밀린 부분도 한동안만 조금 양해 부탁드립니다! 이제 CES도 끝나고 한국에서 오신 손님들도 돌아가셨으니 다시 좀 더 집중해보도록 하겠습니다.
📢 주실밸 커뮤니티 소식
트레바리 모임: 첫 번째 트레바리 모임 “월간 실리콘밸리”가 오픈 1시간도 안 되어 매진되는 바람에 “월간 실리콘밸리 B반”을 열었는데, 이것 역시 금방 매진되었습니다. 솔직히 돈을 받는다는 것 자체가 부담스럽기도 하지만, 그만큼 더 열심히 준비해서 여러분들께 도움 되는 4시간이 되도록 노력하겠습니다. 관심 가져주셔서 다시 한번 감사드립니다!
아웃스탠딩 콜라보: 아웃스탠딩 정지혜 기자님과 2주에 한 번 유튜브 촬영을 하기로 했습니다. 기자님의 날카로운 질문에 제가 답변하는 형식인데, 업계 분들이 아니셔도 이해하실 만한 재미있는 내용이 많을 거라 많은 관심 부탁드립니다!
한국어 팟캐스트 파일럿: 곧 한국 VC분들과 팟캐스트를 시작하려고 합니다. 우선 파일럿으로 이번 주 토요일 아침 10시에 주실밸 채널에서 라이브를 진행합니다! 기대해주세요!
👉 이안과 에단의 대담한 해석 파일럿 라이브 보러가기 (제 친구들인 Eric Bahn, Kevin Zhang과 함께하는 영어 팟캐스트는 여기)
결국 음성을 지배하는 자가 인공지능을 지배할 겁니다.
어제 OpenAI의 새 디바이스에 대한 루머가 또 등장했습니다. 아마도 에어팟의 직접적인 경쟁자가 될 것이라는 소문인데요, 관련해서 여러번 제 생각을 공유해드렸지만 오늘 다시 한번 정리해보려고 합니다.
인공지능의 본질: 지능이 아닌 ‘인터페이스’
이제 지겨우시겠지만, 제 생각에 이번 세대 인공지능의 가장 큰 가치는 ‘지능’ 그 자체보다는 ‘인터페이스’로서의 역할에 있다고 봅니다. 즉, 컴퓨터와 인간의 커뮤니케이션 속도와 질을 압도적으로 높여준다는 점이 핵심입니다.
말씀드렸다시피 언제나 승리하는 인간은 도구를 가장 잘 사용하는 인간이고, 컴퓨터는 인류 역사상 최고의 도구이며, 따라서 이번 세대의 승자는 인공지능을 통해 컴퓨터로 최고의 생산성을 내는 사람이 될 것이라고 확신합니다.
추론과 상상을 할 수 없는 이번 세대 인공지능의 역할은 인간이 물리적 시간이 부족해서 할수없었던 계산들을 해주는 것과 인간이 만든 온라인의 모든 정보를 가장 빠르게 찾아주고 정리해주는 것이라고 생각합니다.
그리고 원래 컴퓨터가 인간보다 뛰어난 부분들이 있었지만, 지금이 그 뛰어남의 격차가 크게 증가하는 변곡점인만큼 더 중요한 것은 인간이 컴퓨터를 얼마나 더 우리 일상에서 쉽고 빠르고 정확하게 사용하느냐라고 생각합니다.
인풋의 혁명: 보이스와 컨텍스트 덤프(Context Dump)
구글과 애플의 협업을 통한 음성 인터페이스의 부상
위의 뉴스레터에서 말씀드렸듯이 보이스는 인풋으로써 키보드나 마우스보다 압도적으로 빠릅니다. 그리고 그동안 쓸모없던 데이터였던 음성을 가장 강력한 인풋 수단으로 바꿔준 것이 바로 인공지능이라는 인터페이스라는게 제 생각입니다.
더 이상 눈과 손을 아이폰에 고정한 채 앱을 찾고 열어서 그 작은 터치스크린 키보드에 타자를 쳐서 컴퓨터와 소통하는 시대가 인공지능 덕분에 끝나간다는 말이죠. 모두 아시는대로 이제 아이폰에 구글 제미나이가 들어가고 그 기반 Apple Foundation Model이 백앤드에서 돌아가게 되면 시리를 통해 음성으로 대부분의 간단한 작업들은 가능해질 것이고 그게 아니라도 적어도 앱을 찾고 여는 과정은 없어질 것이라고 생각합니다.
컨텍스트 덤프(context dump)
동시에 제가 요즘 보이스를 자주 쓰는 방법이 있는데, 생각의 흐름을 여과없이 쏟아내는 brain dump입니다. 저는 사실 이게 brain보다는 제 생각의 맥락을 빠르게 털어넣는 context dump에 가깝다고 생각합니다. 훨씬 빨라진 보이스 인풋을 통해 키보드를 사용할때보다 제 생각을 더 빠르게 필터링없이 앞뒤좌우 맥락을 쏟아내고 이를 인공지능을 통해 정제하는 것이죠.
실제로 이 뉴스레터를 작성할때도 어제 방문한 서울대 벤쳐경영학과 학생들과 했던 대화에서 얻은 영감에 대해 15분정도 떠들었고 그 보이스 메모를 기반으로 이 뉴스레터의 틀을 잡았습니다.
이 방식의 장점은 인공지능의 저의 의도를 같은 시간에 더 많이 알고 이해할수 있다는 것입니다. 그리고 여기서 얻은 인사이트를 또 저장해두고 앞으로 쓸수 있는 것이죠. 물론 저도 종종 제미나이에게 “나에 알고있는걸 자세히 모두 말해줘”라고 해서 수정을 하기도 하지만, 우선은 맥락이 많은게 의도를 파악하는데 도움이 되고 결국 더 좋은 결과물을 만들어낸다고 생각합니다.
24시간 맥락의 중요성
이 과정에서 저는 저의 대화와 생각에 대해 24시간내내 맥락을 기록하고 이해할 수 있으면 좋겠다는 생각을 다시 한번 했습니다. 인공지능을 통해 저도 모르는 저에 대한 이해와 일이나 일상과 관련된 디테일을 놓치지 않고 맥락을 유지하는 것이 앞으로 점점 더 중요해질 것이라고 생각합니다.
동시에 내가 모르는 나에 대해 아는 것 자체가 우리에게는 아주 즐거운 경험일거라고 생각하고, 또 나의 취향과 의도를 인공지능이 언제나 모음으로써 알아내는 이 방식이 결국 최고의 “인공지능 비서”를 만들어가는 방법이라고 생각합니다.
프라이버시와 이미 우리곁에 온 온디바이스 인공지능
하지만 24시간 음성 캡쳐라면는 가장 먼저 떠오르는게 프라이버시에 대한 걱정입니다. 저 또 한 프라이버시에 대한 우려로 클라우드 기반 인공지능과의 대화를 주기적으로 지우고 민감한 토픽은 최대한 대화하지 않습니다. 그래서 저는 2년전부터 개인의 보안과 사생활을 지킬수있는 “온디바이스 AI”를 계속해서 주장해왔던 것이구요.
그리고 최근 제가 컨텍스트 덤프와 24시간 맥락에 대해 더 큰 확신이 생긴건 최근 앱스토어에서 발견한 Whisper Note 덕분입니다. 저와 아무 관련없는 회사인데, 고작 5달러와 700메가의 용량으로 높은 수준의 인공지능 모델을 아이폰에 설치해서, 평생 추가 요금없이 보이스 인풋을 로컬에서 처리가 가능하게 해주는 재미있는 앱입니다.
예전에도 비슷한 앱을 써본적이 있는데, 그때는 퀄리티가 한참 부족했었는데, 이번 Whisper Note는 제가 그전까지 쓰던 클라우드 + 월구독기반의 Wisper Flow만큼의 성능이 나온다고 느끼고 있습니다. 보이스메모 도중에 영어와 한국어를 섞어쓰더라도 아주 잘 받아적는데다, 이미 맥버전도 나와서 아이폰과 맥북에서 동시에 Wisper Flow 유료결제 대신에 너무 잘 쓰고 있습니다.
확장의 시대를 지나 최적화의 시대로
동시에 오래전부터 드린 말씀이지만 저는 이 모습이 바로 인공지능의 미래가 될 것이라고 생각합니다. 우리는 모델사이즈를 키우거나 오래 생각하게 하는 것만으로 모델의 성능을 올리는게 비용대비 효율적이지 못한 단계에 도달했고, 이제 모두 가격과 비용을 낮추고 사이즈를 줄이는 최적화의 시대로 접어든만큼, 온디바이스 인공지능의 시대는 점점 더 빠르게 우리곁으로 오고 있다고 생각하고, 이러한 환경속에서 새로운 어플리케이션과 그에 걸맞는 비지니스모델을 만들어내는 것이 우리 VC들과 창업자들이 함께 고민해야할 부분이라고 생각합니다.
아웃풋의 딜레마: 기술보다는 언어의 진화?
인공지능의 언어 아웃풋 방식의 변화
제가 보이스를 인풋으로써 아주 좋아하고 찬양하지만 아직 아웃풋으로서는 여전히 읽는 것이 듣는 것보다 빠릅니다. 메타같은 기업들이 안경을 통해 스크린을 눈앞에 두려는 이유가 바로 이것이라고 생각합니다. 다만 저는 이 부분을 하드웨어적으로 풀어내는 것은 아직 좀 더 시간이 걸릴 것이라고 생각합니다(이 내용은 다음 챕터인 “하드웨어의 미래”에서 좀 더 다뤄보겠습니다.)
그렇기때문에 저는 기술의 발전보다 오히려 인간의 언어가 진화할 것이라는 생각도 듭니다.
조금 더 풀어서 이야기 해보자면 우리가 글을 읽을때는 보통 단어 하나하나 혹은 철자 하나하나를 보지않고 한발짝 물러서서 키워드위주로 단락이나 페이지단위로 큰 흐름을 인식합니다. 하지만 지금까지의 음성 소통의 경우 단어 차례대로 하나하나 말해주고 듣는게 일반적이죠.
이것이 인공지능과의 소통에서 보이스가 더 느린 결정적이 이유입니다. 하지만 만약 인공지능이 좀 더 빠르게 말을하면서도 완벽한 순서의 문장이 아닌 주요키워드, 속도조절, 단락/요점별 오버뷰위주의 보이스 아웃풋을 전달할수 있다면, 인간이 그것을 이해하는 속도도 읽는것과 같이 빨라지지 않을까라는 생각을 해봤습니다.
인공지능의 빠른 속도와 반복가능성을 이용해 다양한 언어 전달 형태를 만들고 이러한 음성소통의 비선형화를 인간이나 다른 인공지능을 통해 실험해보고 확인해볼 수 있다면, 우리는 아마 보이스 아웃풋에 적합한 언어구조를 찾아낼수 있을지도 모르고, 그럼 그때부터 스크린이 거의 필요없는 본격적인 보이스의 시대가 올 것이라는 생각도 듭니다.
인공지능으로 인한 인간사이 소통의 변화
‘vibe’, ‘rizz’, ‘67’과 같은 새로운 단어가 늘 등장하듯 인간의 언어는 늘 진화해왔습니다. 그리고 저는 요즘 제가 인간보다 인공지능과 대화하는 시간이 더 많아지면서 제 개인적인 언어 습관이 변해간다는 느낌도 들었고, 앞으로의 세대는 저보다 더 그렇게 진화할 것이라고 생각합니다.
다시말해, 이미 나의 맥락을 그 어떤 인간보다 많이 알고있는 모든 것을 기억하는 인공지능과의 대화에는 모든 단어나 설명을 할 필요가 없고 동시에 예의를 차리거나 상대방의 기분을 배려할 필요가 없어지기때문에 훨씬 더 짧고 명료한 효율적인 대화를 할수있다고 생각합니다. 그리고 그것이 새로운 인공지능과의 대화체계로 발전할 수 있다는 생각이죠.
저는 이러한 현상이 저뿐만 아니라 많은 분들에게 알게모르게 일어나고 있다고 생각합니다. 다만 약간 우려되는건, 장기적으로 이렇게 효율적으로 진화한 언어 체계 속에서, 전통적인 완전한 문장을 구사하는 인간은 라틴어처럼 극소수이거나 사라질지도 모르고, 그렇다면 그런상황에서의 인간과 인간의 관계와 소통이 어떻게 흘러갈지입니다. 이미 서로간의 소통이 너무 힘들어진 시대에 살고있기때문에 더 걱정되는 부분도 있구요. 아마도 지금 이메일을 서로 인공지능으로 써서 주고받는 것처럼, 대화도 인공지능이 대신 대화해주지 않을까라는 생각은 듭니다.
많은 사람이 “인간다움”과 “불완전성”이 인공지능시대에 살아남는 법이라고 말씀하시는데, 저는 지피티가 “음…”,”아...”와 같은 filler word를 흉내내는 것을 보면서 결국 인공지능은 “불완전성도 완전히 따라할 수 있다”는 생각이 들어서 아직까지 이 부분은 저도 계속 고민중입니다.
인공지능 하드웨어의 미래: 오픈이어와 디바이스 메쉬(Mesh)
아까 말씀드린 것처럼, 제가 가장 관심있고 세상을 바꿀 것이라고 믿는 컨슈머 인공지능 하드웨어에 대해 좀 더 다뤄보려고 합니다.
앞서말씀드린 것과 같이 인공지능을 통해 인풋과 아웃풋을 더 빠르고 많이 그리고 정확히 처리하기 위해 OpenAI도 새로운 하드웨어에 신경을 쓰고 있는 것 같습니다.
출처: TechRadar/Hypebeast - OpenAI & Jony Ive Device Rumors
최근 루머에 따르면 새 디바이스는 작은 캡슐모양으로 귀 뒤에 붙이는 형태가 될수도 있을 것으로 알려졌습니다. 귀 안에 넣는 것이 아니라 귀 뒤에 붙이는건 제가 이전 뉴스레터에서 한번 말씀드린 적이 있습니다. 강의도 많이한 토픽이구요.
가운데 그림을 보시면 아시겠지만 오랫동안 끼고있기 편해야하고, 동시에 주변에서 일어나는 일을 들을 수 있으면서도, 동시에 나만 인공지능의 말을 깔끔하게 들을 수 있어야합니다. 그런 의미에서 귀를 막지않고 나만 들을수있는 오픈이어 이어폰(maybe 골전도)가 유력하다고 생각했구요.
덧붙여 저는 하나의 디바이스가 아니라 중복적인 여러개의 디바이스를 통해 어떤 망(메쉬)이 만들어질 것이라고 생각해왔습니다. 오픈이어 디바이스를 기본으로 하되, 프라이버시와 맥락 유지를 위해 반지, 안경, 핀, 목걸이, 펜 등 하나의 디바이스가 아닌 여러개의 디바이스가 서로 중복적으로 보완하고 메꾸면서 한 디바이스가 놓친 것들을 다른 디바이스가 확인하고 전달하는 등 여럿이 함께 작동할 것이라고 생각합니다 (반지는 입을 가리고 남들 몰래 소통을 하기좋고, 나머지는 나의 말과 남의 말을 잘듣는데 유용할 것)
다만 안경이 메인이 되는 것에 대해서는 저는 좀 부정적인데, 안경을 쓰지않는 사람에게 안경 그자체가 무겁고 불편하고 뜨겁고 배터리도 짦아서, 억지로 쓰게한다는 것 자체가 쉽지 않다고 생각합니다. 외모에도 영향을 크게 미치는데다, 현재까지의 흐름을 봤을때 디스플레이를 눈앞에 충분한 사이즈로 텍스트나 무언가를 보이게 한다는 기술 자체가 생각보다 시간이 오래걸릴 것라고 생각합니다. 다만 미세한 근육의 움직임을 캡쳐하는 메타의 뉴럴밴드가 오히려 아주 훌륭한 새로운 인풋 수단이 될 가능성이 크다고 생각합니다.
개인적으로는 아직 스텔스모드이라 이름과 팀을 밝힐수는 없지만, 작년에 이 방향으로 가고 있는 극초기 팀에 엔젤투자를 했을정도로 이 분야에 대해 진심이고 기대가 큽니다.
Gen Alpha와 Visual Storytelling
약간 오프토픽이긴한데, 뉴스레터로 쓰기에는 또 좀 짧은 인공지능 인풋/아웃풋 이야기 하나만 간단하게만 짚고 넘어가자면, 저는 아웃풋이 가고있는 또 다른 진화 방향은 텍스트가 아닌 비주얼이라고 생각합니다.
이제는 제법 어른이 되어버린 Gen Z를 넘어서서 그 다음 세대인 Gen Alpha는 완전한 영상 네이티브 세대라고 생각합니다. 글보다 영상에 훨씬 익숙한 이 세대는 긴 글을 읽지 않습니다. 그래서 저는 맥락을 즉시 시각적 스토리텔링으로 변환하는데 인공지능이 중요하다고 생각하고, 인공지능과 협업하는 그 과정을 더 쉽고 정확하게 할수있도록 도움을 주는 StoryTribe와 같은 도구의 미래를 Canva for AI와 같이 밝게 봅니다.
또 제가 피치덱 피드백으로 대표님들께 많이 드리는 말씀인데, 앞으로의 커뮤니케이션은 ’최소한의 단어’와 ‘시각화’가 그 코어가 될 것이라고 봅니다. 너무 바빠서 시간이 없고, 한꺼번에 너무 많은 것들이 돌아가고, 집중력이 5초를 넘기기 힘든 ADHD가 다수 포진한 VC들은 어쩌면 Gen Alpha와 같은 성향을 가진다고 느끼기때문에 그런지도 모르겠습니다 ㅎㅎㅎ
어쨋든 전달하고 싶은 부분을 가장 최소한의 단어와 시각화자료로 전달하는 것은 주제에 대한 아주 깊은 이해를 필요로 합니다. 5살 아이에게 어려운 기술을 설명하는 것이 그 토픽에 대한 깊은 이해를 필요로 하는 것과 같이, 단어를 줄이고 하나의 그림으로 전달하고 의도를 완벽하게 전달하는 것이야말고 고민의 깊이와 집착과 이해도를 보여준다는 생각도 듭니다. 조금 더 나아가보면 너무 길게 쓴 글들은 (이 뉴스레터처럼?) 그저 글을 많이 써서 시간을 많이 들인 것을 보여주고, 모든 것을 풀어 설명하는 것이 어쩌면 글에 대한 이해를 내가 아닌 상대방에게 떠넘긴다는 느낌도 듭니다.
그래서 attention span이 짧은 VC와 Gen Alpha를 설득하고, 영업하고, 팔기위해서는 문자보다는 보이스와 비주얼이 더 중요해질 것이라고 생각하고 이에 맞는 시대의 흐름에 어떻게 대응해야할지는 앞으로도 구독자님들과 함께 고민해보았으면 좋겠습니다.
그래서 어쩌라고? Consumer 하드웨어의 ‘Great Reset’
역사적으로 인터페이스가 바뀔 때마다 거대한 부의 이동이 있었습니다.
웹에서 모바일로 넘어올 때 우버와 인스타그램이 탄생했듯, 인공지능과 음성으로 넘어가는 지금은 모든 소프트웨어와 서비스가 동일 선상에서 다시 시작하는 ’Great Reset’의 시기입니다.
저는 이 변화를 이해하고 올라타는 자가 다음 시대를 지배할 것이라고 생각하고 이런 큰 꿈을 가진 대표님들과 더 많이 만나고 함께 고민하고 싶습니다.
(TMI지만 지금 폐관 수련중이라 4월에야 뵐수있겠지만 그때 다 확인하고 연락드리겠습니다! 이메일 주세요! ian@ianpark.vc)
오늘도 읽어주셔서 감사합니다. 그리고! 곧 제가 하는 프로젝트들에 관해 한번 정리해서 공유드리겠습니다. 많은 관심과 참여부탁드리겠습니다.
감사합니다!
이안 드림
아래는 카톡방에 보내드린 제 수련 계획, 단군 프로젝트…ㅋㅋㅋ








오랜만에 뉴스레터를 읽게 됐네요. 인풋에 대한 부분은 100% 공감하지만 아웃풋에 대해서는 아직까지 물음표가 많습니다. "이미 나의 맥락을 그 어떤 인간보다 많이 알고있는 모든 것을 기억하는 인공지능과의 대화에는 모든 단어나 설명을 할 필요가 없고 동시에 예의를 차리거나 상대방의 기분을 배려할 필요가 없어지기때문에 훨씬 더 짧고 명료한 효율적인 대화를 할수있다"로 설명한 건 아웃풋보다는 인풋에 대한 설명에 가깝기에 해당 주장을 뒷받침하기에는 부족하지 않았나 싶습니다. 물론 보다 협소한 의미로 인공지능과 사용자 둘 사이에 많은 정보가 공유 되고 있어 상호 간의 대화가 지금보다 훨씬 간결해 질 수 있다는데는 부분적으로 공감합니다.
개인적으로 인간이 언어를 통해 소통하는 방식이 바뀌는데는 생각보다 오랜 시간이 걸리지 않을까 싶습니다. 특히 정보를 이해하는 부분에서는 더욱이요. 예로 들어주신 VC에게 발표하는 장표에 비주얼적인 요소와 핵심 단어는 좋지만 결국 그걸 보는 사람이 가장 기분 좋을 때는 자신이 이해한 내용이 장표에 표현된 이미지와 단어로 '압축될 수 있음을 확인 했을 때'이지 않을까 싶습니다. 즉, encoding과 decoding이 맞아 떨어지는 게 중요하다고 느껴요.
이번 뉴스레터가 던진 질문은 매우 깊이 있었다고 생각합니다. 그래서 더 곱씹어 볼 내용들이 많네요. 감사합니다.
AI와 협업과 관련해서 "아웃풋이 가고있는 또 다른 진화 방향은 텍스트가 아닌 비주얼"이라는 부분에 매우 공감합니다. AI와 협업이 가장 빠르게 발전하고 있는 분야가 코딩 에이전트 분야라고 생각하는데, 저희 엔지니어들이 농담 삼아 하는 말이 "바이브 코딩이 업무를 획기적으로 효율화 해주지만, 결국 AI 소통 할 때 엄청난 양의 텍스트를 읽는게 너무 귀찮은 일"이라고 하더라구요... ^^;; (사람의 귀차니즘은 어디까지 갈 것인가... ㅎㅎㅎ)
그래서 몇가지 가볍게 아이데이션 중인데, 얘기하다보니 언어적 특성과 민족 문화까지 나오더라구요... 서양인들은 텍스트 중심의 개조식 문서를 좋아하고, 한국 사람들은 표와 다이어그램(비주얼)으로 압축적인 문서형태를 좋아한다고...
암튼 제가 이 분야의 전문가는 아니지만, 조만간 전문가들의 도움을 받아서 특허를 몇개 출원해 보려고 준비중 입니다. ^^
여러모로 이안님의 말씀에 공감하고, 놀랍도록 생각이 비슷하다는 부분에서(물론 약간 다른 부분들도 있지만)조금 더 용기를 얻게 된 것 같습니다.
좋은 글 잘 읽었습니다.
감사합니다~!!