KOBICian’s Story

- 작성자 김판규 (KOBIC 책임기술원)
- 작성일2025-03-14 16:43:18
- 조회수284
2024년 12월 중국에서 개발되어 발표된 DeepSeek-V3, 그리고 뒤이어 올해 1월에 발표된 증류모델 DeepSeek-R1는 딥러닝 기반의 인공지능 분야에 큰 충격을 주고 있습니다. 이전 서비스들에 비해서 너무나 싼 개발·구축 비용, 그리고 MIT 라이센스, 즉 오픈소스라서 사용자가 직접 설치하여 활용할 수 있기 때문입니다. 그럼에도 불구하고 그 성능은 GPT 서비스 등과 유사하다고 하니 놀라운 따름입니다.
DeepSeek는 헤지펀드 회사의 CEO이면서, 동시에 인공지능 연구회사(회사이름도 DeepSeek)의 창립자인 량원펑이 만들었습니다. DeepSeek-V3와 함께 발표된 기술 문서에 따르면 GPT-4o등 기존 LLM 모델에 비해서 벤치마킹 성능이 전혀 부족하지 않으면서도 모델 학습을 위해 사용한 비용은 557만 달러에 불과했다고 합니다(실제 인프라 구축 비용은 아니며, 모델 학습 시간동안 GPU를 빌린다고 가정할 때 드는 비용-실제 모델학습에 사용된 H800 GPU는 2,048개 이며, GPU 1개를 사용한다고 가정할 때 총 278만 8천 시간이 소요되었고, H800 GPU 1개당 1시간 빌릴 때 비용 2달러로 계산). 통상적으로 수천억 원 이상의 비용을 들여 엄청난 연산 자원을 구축해야만 고성능의 AI 서비스를 개발할 수 있다고 믿었던 고정관념을 깨뜨리는 계기가 되었습니다.
<DeepSeek-V3와 유사 모델의 성능비교, https://github.com/deepseek-ai/DeepSeek-V3>
그렇다면 DeepSeek는 어떤 방법으로 비용을 획기적으로 줄이면서 비슷한 성능을 낼 수 있었을까요? 결론부터 말씀드리면 인공지능 분야에서 수십 년 이상 연구 되어온 다양한 기법의 총망라로 가능하였으며, 엄밀하게 말해서 그 성능도 GPT-4o와 거의 동일하지만 추론 능력이 더욱 뛰어난 GPT-o1보다는 부족한 부분이 있는 것 같습니다.
LLM 모델이나 딥러닝의 상세 설계를 하는 연구자가 아니라면, 사실 어떻게 DeepSeek가 비용을 줄이는지 별로 궁금하게 여기지 않을 것 같으니 이 글에서는 간단하게 다음의 표로 대신하겠습니다.
<DeepSeek의 저비용 고성능 개발 방법>
방법 | 설명 |
부동소수점 8비트(FP8) 연산사용 | 전통적인 LLM 모델에서 가중치 계산을 위해 사용하는 부동소수점 32비트 혹은 16비트 연산 대신 8비트 연산을 사용하여 낮은 가격의 H800을 사용하더라도 가중치 연산 성능은 비슷함 (8비트에 대한 연산 성능은 H100과 H800이 동일) |
CoT (Chain of Thought)/추론 | 곧바로 답을 찾는 것이 아니라 답을 찾기 위해서 여러 과정으로 나누어서 단계별로 접근하면 성능이 향상됨 |
MoE(Mixture of Experts) | 큰 규모의 범용 모델을 만들기보다는 여러 개의 전문가 그룹으로 나누어서 결과를 취합하면 적은 비용으로 비슷한 성능 구현이 가능함 |
강화학습, Agent/SFT (Supervised Fine Tuning) | 모델 학습 진행과 수정을 관리 감독하는 agent가 인간 피드백이나 평가지표의 측정을 통해서 모델을 조금씩 인위적으로 수정하면서 최적화하여 성능향상 |
증류(Distillation) | 노드수와 파라미터 수가 많은 딥러닝 모델을 통해 미리 학습한 후 핵심 네트워크만 추려서 노드수와 파라미터 수를 줄임으로써 일정 수준의 성능은 보장하면서 딥러닝 모델을 실행할 수 있는 인프라 환경을 축소하는 기술 |
동시 연산-정보교환 | 통상적인 CUDA기반 모델은 데이터 이동시간은 GPU가 아무 일도 하지 못하지만 알고리즘 변형을 통해 정보교환과 연산이 동시에 가능하게 수정 |
CUDA/Assembly 레벨 최적화 | CUDA 코딩의 최적화 및 Assembly언어 레벨의 코딩을 통해 성능 최적화 |
최적 모델 성과평가 개발 | GRPO(Group Relative Policy Optimization)의 개발을 통해서 모델 학습 시 성과를 잘 평가하고 반영 |
위 방법 중에서 CoT(Chain of Thought)/추론과 관련하여 2022년에 발표된 흥미로운 연구 결과가 있습니다(“Large Language Models are Zero-Shot Reasoners”). 이에 따르면 어떤 수학문제에 대한 정답률이 17.7%인 LLM 모델(Large InstructGPT)에게 “차근차근 생각해 봐”라고 한마디 더 지시하면 정답률이 78.7%까지 높아진다는 것입니다. 통상적으로 일반적인 LLM 모델은 학습된 모델을 통해서 한번에 답을 찾으려 하지만, 이런 식으로 명령을 하게 되면 검토과정을 거치거나 추론 단계를 자체적으로 거쳐서 더 나은 결과를 가져올 수 있다는 것입니다. DeepSeek에서는 이러한 추론과정을 아예 강제함으로써 성능을 향상 시킬 수 있었을 것으로 생각됩니다.
기술문서에서는 통상적인 벤치마킹 결과 DeepSeek의 성능이 유수의 기존 서비스들과 유사하다고 하였습니다. 하지만 조금 어려운 추리문제 등에서는 GPT-o1보다 정답률이 떨어진다는 보고도 있습니다. 사실 GPT-o1은 작년 수능의 국어와 수학 문제를 풀 때 거의 만점을 받는다고 하니, GPT-4o보다 개선된 부분이 많은 것 같기도 합니다.
DeepSeek는 현재 무료로 사용 가능하지만, 보안 등의 이슈로 정부기관이나 공공공기관 등에서는 접속이 제한됩니다. 아쉽게도 휴대폰용 앱 역시 우리나라에서는 현재 다운로드가 되지 않습니다. 만약 업무에 활용하고자 한다면, 로컬에서 직접 설치하는 방법을 추천드립니다. LLM모델을 로컬에서 실행하게 해주는 Ollama를 설치한 후, ollama프롬프트에서 간단한 명령어로 모델 선택하여 다운로드 및 설치가 가능합니다. 윈도우, 맥, 리눅스 환경 모두 가능합니다. 파라미터의 개수가 가장 많은 DeepSeek-R1버전은 고성능 GPU와 128GB 이상의 메모리가 탑재된 고사양 컴퓨터가 필요하며, 증류 버전인 DeepSeek-R1-Distill-Qwen-1.5B은 일반적인 GPU 카드를 탑재한 PC에서도 충분히 실행이 가능합니다. 한글 사용을 고려한다면, 32B이상의 버전을 사용하는 것이 좋습니다.
DeepSeek의 발표로 인공지능서비스의 연구방향은 두 갈래로 나누어지고 있는 것 같습니다. 하나는 기존 LLM 모델이 추구하는 “Scaling은 계속된다”입니다. GPU의 처리속도가 점점 더 빨라짐에 따라, 더 많은 파라미터와 학습 데이터를 투입하여 고성능의 범용 인공지능 서비스를 개발하려는 움직임입니다. 다른 하나는 DeepSeek로 인해 가속화되는 “on premise” 또는 더 나아가 “on device”입니다. 개별 PC에서도 설치가 가능한 현재 버전의 DeepSeek만 잘 활용한다면, 이제는 특정 연구분야의 데이터만을 학습시킨 소규모 자체 인공지능 서비스를 제공할 수 있는 시기가 된 것 같습니다. 이와 함께 데이터의 중요성은 점점 더 커지고 있습니다. 지금까지 공개된 LLM 모델인 Llama3, Qwen, DeepSeek-R1 등도 어떤 학습 데이터로 어떻게 학습 시켰는지는 전혀 공개하지 않고 있습니다. 프로그램 코드는 공개하더라도 데이터는 공개하지 않는다는 것을 볼 때 어떤 데이터로 모델을 학습시키는가가 더 핵심적인 부분이란 생각도 듭니다.
다른 KOBICian’s Story 보기

최근 유전체 분석 기술과 빅데이터 처리 인공지능(AI) 기술이 급속히 발전하면서, 전 세계적으로 국가 단위의 대규모 유전체 프로젝트가 활발히 진행되고 있습니다. 예를 들어 영국의 UK Biobank 프로젝트와 미국의 All of Us 프로젝트는 국가 차원의 사업을 통해 방대한 양의 유전체 데이터와 임상 정보 및 시료를 확보하고 있습니다. 이와 같은 글로벌 연구 흐름에 동참하기 위해 우리나라에서 추진 중인 ‘국가 통합 바이오 빅데이터 구축 사업’에서는 한국생명공학연구원 국가생명연구자원정보센터(KOBIC)가 대규모 유전체 및 오믹스 정보 생산 및 분석을 담당하고 있습니다.
이러한 대규모 유전체 프로젝트의 궁극적인 목표는 개인의 유전체 정보를 바탕으로 질병의 발생 원인을 규명하고, 개인별 맞춤형 진단과 치료를 가능하게 하는 것입니다. 이를 위해 많은 연구기관에서 다양한 방식의 유전체 분석 연구가 진행되고 있으며, 실질적인 성과를 이루어가고 있습니다. 그러나 유전체 분석 과정에서 발생할 수 있는 여러 가지 기술적 변수들도 존재하고 있으며, 연구의 신뢰성을 높이기 위해 이러한 변수들을 효과적으로 관리하고 극복하는 지속적인 노력이 요구됩니다.
이 중에서 대규모 유전체 분석의 신뢰성 확보를 위해 중요하게 고려해야 할 기술적 요인 중 하나로 ‘배치 효과(batch effect)’가 있습니다.
배치 효과란 실험 과정에서 기술적 변수들로 인해 데이터 편차가 발생하는 현상을 의미합니다. 이는 동일한 연구 프로젝트 내에서도 서로 다른 시기에 수집되거나 다른 시퀀싱 플랫폼으로 생산한 샘플 간에도 나타날 수 있습니다.
특히 장기간 진행되는 대규모 프로젝트에서는 시퀀싱 기술의 발전이나 실험 조건의 변화 등이 불가피하게 발생하기 때문에 데이터 생산 시기에 따라 기술적 편차가 나타나는 것은 자연스러운 현상입니다. 예를 들어 과거에는 Illumina HiSeq 등 특정 시퀀싱 플랫폼이 주로 사용되었으나 최근 들어 NovaSeq 시리즈와 같은 보다 진보된 플랫폼이 널리 사용되고 있습니다. 또한 같은 플랫폼이라도 시약이나 분석 방법이 개선될 수 있기 때문에 기술적 편차는 지속적으로 발생할 가능성이 있습니다.
이러한 배치 효과는 단순한 기술적 차이로 보일 수 있지만, 실제 분석에서는 중요한 결과 왜곡의 원인이 될 수도 있습니다. 특히 환자군과 정상 대조군 사이의 유전적 변이를 비교하는 질병 관련 연구에서는 배치 효과로 인한 기술적 차이가 마치 질병과 연관된 유전적 요인으로 잘못 인식되어 거짓 양성(false positive) 결과를 초래할 수 있습니다. 이는 후속 연구와 임상 적용 단계에서 연구 결과의 신뢰성을 저하시키는 원인이 될 수 있어, 배치 효과를 정확하게 탐지하고 보정하는 과정이 필수적으로 요구됩니다.
국내에서 진행한 대규모 게놈 프로젝트(1만명 급)에서 배치 효과의 중요성을 보여준 사례가 있습니다. 이 프로젝트에서는 한국인의 집단 특성상 유전적 동질성(homogeneity)이 높아 작은 기술적 편차가 분석 결과에 비교적 뚜렷하게 나타났습니다. 분석 과정에서는 기존의 일반적인 배치 효과 보정 방법을 적용했으나 완전한 보정이 어려웠고, 추가적으로 대립유전자 균형 편향(allele balance bias)와 같은 품질 지표를 활용해 배치 효과를 더 세부적으로 탐지하고 보정하여 결과의 신뢰성을 높일 수 있었습니다. 물론 이 방법은 한 사례에서 효과적이었으나, 다른 연구에서는 다양한 추가적인 기술적 접근법이 필요할 수 있습니다.
이러한 사례를 통해 대규모 유전체 분석에서 배치 효과 보정은 연구자가 필수적으로 고려해야 하는 중요한 요소 중 하나임을 알 수 있습니다. 그러나 배치 효과가 유전체 분석의 유일하거나 가장 중요한 이슈라는 의미는 아니며, 데이터 품질, 샘플링의 정확성, 인구학적 특성 등 여러 요소와 함께 통합적으로 고려해야 합니다. 장기간 진행되는 국가 규모의 대규모 프로젝트에서는 이러한 기술적 이슈들을 관리할 수 있는 접근법을 지속적으로 개발하는 것이 매우 중요합니다.
결론적으로, 배치 효과를 비롯한 다양한 기술적 변수들에 대한 연구자들의 지속적인 관심과 해결 노력이 있을 때, 대규모 유전체 프로젝트는 더욱 신뢰성 있는 데이터를 확보하고, 이를 기반으로 궁극적인 목표인 정밀의료 및 개인 맞춤형 의료를 성공적으로 실현할 수 있을 것입니다. 앞으로도 이러한 기술적 고려사항들을 효과적으로 관리하기 위한 연구가 지속적으로 필요할 것입니다.
- 작성자전연수
- 작성일2025-04-06
- 조회수57
.jpg)
KOBIC에 입사한 지 어느덧 4개월여의 시간이 흘렀습니다. 짧다면 짧고, 또 길다면 길게 느껴지는 시간이었습니다. 이번 글에서는 최근까지 '등록 양식 고도화 작업'을 수행했던, 단일세포와 공간전사체 데이터에 관한 이야기를 나누고자 합니다.
흔히 조직 수준의 평균적인 유전자 발현을 확인하는 bulk RNA-seq을 과일 셰이크에, 조직을 이루는 개별 세포 단위로 쪼개어 유전자 발현을 측정하는 단일세포 전사체 데이터를 개별 과일에 비교하곤 합니다. 그렇다면, 발현량에 세포나 조직의 위치 정보를 더해 조직 구조와 세포 상호작용을 이해할 수 있는 공간 전사체 데이터는 개별 식재료들을 정교하게 배치한 정찬이라고 볼 수 있을 것입니다. High-throughput sequencing(HTS) 기술은 어떻게 이러한 샘플의 복잡성을 반영하는 방향으로 발전할 수 있었을까요?
제가 처음 대학원 문을 두드리던 무렵에는 RNA-seq이 Microarray를 대체하고 주류 전사체 데이터 생산 기술로 자리매김하고 있었습니다. 이 데이터들에 익숙해질 무렵 단일세포 시퀀싱 기술로 생성된 전사체 데이터를 처음 접하고, 충격을 받았습니다. 여러 연구자가 경쟁하며 개별 연구에서 다루는 세포 수가 순식간에 백만 단위 규모로 폭발적으로 증가했죠. 그러나 시간이 지나며 세포 수라는 양적 가치에서 복합적인 정보들을 통합하는 질적 가치로 연구의 무게중심이 옮겨가는 흐름이 뚜렷해졌습니다. 여전히 많은 세포를 분석하는 연구는 계속되고 있지만, 이제는 여러 오믹스 기술과 공간 정보를 통합하여 개별 샘플로부터 더 풍부한 정보를 얻고, 이를 바탕으로 더 복잡한 생물학적 질문에 답하는 방향으로 연구가 진화하고 있습니다.
이러한 변화를 지켜보며 자연스레 떠오른 개념이 '양질전화(量質轉化)'입니다. 양적 변화가 점진적으로 축적되다 보면 어느 순간 질적 변화가 일어난다는 철학적 개념인데, HTS 기술 발전에 따라 단일세포와 공간전사체 기술의 등장을 지켜보며 이러한 개념을 엿볼 수 있었습니다.
HTS 기술이 성숙함에 따라 단순히 '더 많은 양'의 데이터를 생산한 것이 아닙니다. 단일 실험에서 수십억 개의 시퀀싱 read를 생산할 수 있게 되었고, 이는 단순한 양적 증가를 넘어 질적 변화를 가능하게 했습니다. 데이터 처리량의 규모가 특정 임계점을 넘어서자, 이전에는 불가능했던 패턴 인식과 통찰이 가능해진 것입니다. 세포 단위 정보를 식별하여 고해상도 데이터를 생산하거나, 공간 정보를 추가하여 기존의 유전자 발현 데이터에 새로운 맥락을 더하는 기술적 발전은 모두 시퀀싱 기술의 발전을 통해 점진적으로 증가한 생산량이 어느 수준에 도달하여 나타난 결과일 것입니다.
이렇게 생산된 단일세포와 공간전사체 데이터는 기존의 시퀀싱 데이터와는 상이한 특성들을 지닙니다. 세포 분리 방법, 세포 포집 효율, 이미징 정보 획득을 위한 조직 처리 과정 등 생산과정이 훨씬 복잡할 뿐만 아니라, 생성되는 데이터 자체도 세포 유형별 정보, 세포 간 상호작용, 공간적 분포 등 다층적인 정보를 포함합니다. 그동안 단일세포와 공간전사체 데이터가 국가 바이오 데이터 스테이션(K-BDS)에 등록되지 않은 것은 아니지만, 기존 양식으로는 데이터와 생산과정의 다양한 특성을 충분히 담아내지 못했기에 등록양식 고도화 작업이 필요했습니다.
고도화를 통해 담아내고자 했던 것은 먼저 다양한 데이터의 형태였습니다. 과거에는 몇 가지 표준화된 형식으로 데이터를 관리할 수 있었지만, 이제는 다양한 플랫폼과 기술에서 생성된 데이터의 이질성이 더욱 커졌습니다. 다양한 단일세포 및 공간전사체 기술들은 기존의 KRA뿐 아니라 서로 간에도 다른 형식과 해상도의 데이터를 생성하지만, '단일세포' 또는 '공간전사체'라는 범주 내에서 이들 데이터의 등록이 간편하게 이루어질 수 있도록 했습니다.
또한 메타데이터에 작성해야 할 항목들이 크게 늘어났습니다. 새로운 플랫폼과 기술에 따라 데이터를 해석하고 재현하기 위해서는 더 많은 실험 조건과 기술적 세부 사항이 기록되어야 합니다. 예를 들어, 단일세포 실험에서는 세포 분리 방법, 캡처 효율, 시퀀싱 깊이 등이, 공간전사체 실험에서는 조직 처리 방법, 섹션 두께 등 이미징 정보뿐 아니라 시퀀싱 정보와 산출된 이미지 정보를 연결하는 프로토콜 또한 중요한 메타데이터가 됩니다.
특히 이번 등록 양식 고도화에서는 발현량 매트릭스뿐 아니라 사용자가 제출하는 분석 데이터의 주요 유형을 정의하고 이들이 유래한 샘플 정보와의 연계성을 검증하여 사용자들의 편의를 도모하고자 했습니다. 이는 현재 NCBI GEO나 EBI의 Biostudies를 비롯한 주요 데이터베이스에서도 제공하지 않는 기능이라, 활용성 증대를 통해 K-BDS의 경쟁력을 강화하는 데 도움이 될 것으로 기대합니다.
시퀀싱 기술을 비롯한 바이오 데이터 생산 기술은 앞으로도 계속 발전할 것이며, 새로운 형태의 데이터들이 지속적으로 등장할 것입니다. K-BDS에서도 이러한 기술적 발전을 적시에 파악하고 반영하고자 노력하지만, 등록 양식의 고도화는 기술의 발전 속도를 따라가기 어려운 것이 현실입니다. 그럼에도 불구하고 이러한 노력은 필수적입니다. 새로운 기술로 생산된 데이터는 그에 맞는 메타데이터 없이 제대로 사용하기 어렵고, 충분한 부가 정보 없이 등록된 데이터는 추후 활용 가치가 크게 떨어지기 때문입니다. 그렇기 때문에 이번에 고도화될 단일세포와 공간전사체 데이터 등록양식이 오래도록 유용함을 잃지 않고 연구자들의 데이터 등록에 사용될 수 있기를 바랍니다.
- 작성자백부경
- 작성일2025-03-31
- 조회수194
지난 2개의 글을 통해 미국 달러화가 어떻게 전 세계에 널리 퍼지게 되었고 일본 경제와 엔화가 어떤 과정으로 달러 패권에 백기를 들게 됐는지 말씀드렸습니다. 마지막으로 위안화 이야기를 해보겠습니다. 2기 트럼프 행정부 출범이후 미국은 무역적자를 빌미로 전 세계에 관세 폭탄을 투하하고 있습니다. 그 표적의 중심에는 역시 중국이 있습니다.
<이미지 출처: 조선일보(https://www.chosun.com/economy/economy_general/2025/02/20/2YJIMYY4ZJCOHBL7LPMVBKRJXQ/)>
위 이미지는 뉴스기사에서 발췌한 2024년도 대미 무역흑자 국가 순위입니다. 역사는 반복됩니다. 미국은 중국에게 ‘제2의 플라자 합의’를 요구할 수 있을지, 그리고 어떤 방향으로 판을 짜 갈지 궁금해집니다.
1편에서 네트워크 외부성 개념을 설명하면서 화폐가 국제적으로 통용되기 위한 몇몇 조건을 설명 드렸습니다. 중국몽(China Dream)을 아시나요? 이는 2012년 시진핑이 중국 최고 리더로 부임하면서 내세운 정치지도 개념입니다. 그 중심에는 ‘위안화의 국제화’가 있습니다. 하지만 중국은 일본의 사례와 1990년 중후반 아시아의 여러 나라들이 겪었던 외환위기 및 그 결과를 철저히 학습했습니다. 중국이 금융시장을 개방하지 않고 ‘관리변동환율제’를 고집하는 이유이지 않을까 싶습니다. 위안화의 국제화를 원하면서 금융시장은 개방하지 않는다니, 생각해 보면 조금은 모순적입니다.. 그렇다면 중국의 속셈은 무엇이었을까요.
먼저 일대일로(一帶一路) 프로젝트입니다. 이는 중국의 신(新)실크로드 전략으로 내륙과 해상의 경제벨트 구축을 의미합니다. 신중국 설립 100주년이 되는 2049년까지 현대판 실크로드를 재구축해 중국과 주변 국가의 경제·무역협력을 확대한다는 목적을 가지고 있습니다.
<이미지 출처: Economist(https://www.economist.com/special-report/2020/02/06/china-wants-to-put-itself-back-at-the-centre-of-the-world)>
쉽게 말해 내륙길(철도)과 해상길(항구)를 건설하는 대규모 인프라 사업을 벌이되 핵심은 이를 위안화로 지원한다는 것입니다. 그 구체적인 방안은 위안화 채권 발행과 통화 스왑(swap)의 두 가지입니다. 채권은 향후 중국에게 갚아야 하는 빚이 되는 것이고, 통화 스왑은 해당 국가의 통화와 위안화를 약정된 환율로 맞교환 하는 방식입니다. 금융시장 개방 없이 위안화를 중국 밖으로 내 보내는 방법이 이해가 되시나요? 제2차 세계대전 이후 유럽 재건을 목적으로 하늘에서 달러를 뿌렸던 것과 유사한 방식입니다.
두 번째로는 페트로 위안화입니다. 중국은 미국이 장악하고 있는 석유 에너지 시스템을 벗어나고자 하는 동시에 위안화로 원유수입대금을 결제하기 위해 엄청난 노력을 기울이고 있습니다. 태양광, 풍력 등 석유대체 에너지원에 대한 기술개발 및 생산시설 투자를 늘리고 있으며 동시에 사우디아라비아, 러시아와 지속적으로 원유와 가스의 위안화 결제를 협의하고 있습니다. 사우디는 빈 살만, 러시아는 푸틴이라는 ‘스트롱맨’이 집권하고 있으니 가능성이 없는 이야기는 아닌 듯합니다. 최근 미국이 러시아-우크라이나 전쟁 종결에서 취하고 있는 입장은 이러한 맥락에서 이해한다면 납득이 갈 수도 있습니다.
달러 패권에 대한 위안화의 도전은 위기는 있었지만 아직 끝나지 않았습니다. 직접적인 통화 전략이 아닌 과학기술(예, DeepSeek, KOBICian 45호), 외교 분야에서 지속적으로 방안을 찾고 있는 중입니다. 판을 흔들고 미국에 협상 카드로 쓸 수 있는 무언가가 나올 때 까지 계속되겠죠. 3개의 짧은 글을 통해 달러 패권과 일본 엔화, 중국 위안화의 도전에 대해서 알아보았습니다. 화폐로 주제를 정한 이유는 네트워크 외부성이라는 개념이 생명연구자원(데이터, 소재)에도 적용 될 수 있다는 아이디어 때문이었습니다. 그렇다면 앞으로 어떤 전략을 취해야 우리나라 생명연구자원이 글로벌 연구자들의 선택을 받을 수 있을까요? 우리가 내어주어야 할 것과 취할 수 있는 것이 무엇인지 깊이 있게 고민해야합니다. 다음 글에서는 이러한 고민들을 국가 정책으로 구체화하는 이야기를 해보고자 합니다. KOBIC은 현재 ‘제4차 국가생명연구자원 관리·활용 기본계획’ 기획연구를 수행 중에 있습니다. 더 재밌는 이야기로 돌아오겠습니다.
- 작성자박강민
- 작성일2025-03-21
- 조회수163