기술은 감각이다, 밀론 블로그
Ai의 발전은 더 이상 없을 수도 있다. 본문
※ 본 파트는 필자의 해석과 의견이 일부 포함되어 있습니다. 다만, 공개 자료와 업계 발표를 바탕으로 최대한 사실에 근거해 정리했습니다.
[Cryo Etch] Part 1. Etching 공정의 개요와 Cryo Etch 공정의 재조명
[Cryo Etch] Part 2. Plasma Etching의 원리와 한계
[Cryo Etch] Part 3. Cryogenic Etching의 원리와 등장 배경
[Cryo Etch] Part 4. 산업 적용 사례 및 미래 전망
1. AI와 반도체의 연결고리
cryo 공법이 재조명받고 다시금 활용되기 시작했던 게 ai 붐 시작하고 나서의 시기와 비슷한 것 같다.
반도체 요구가 변화함에 따라 공법이 변화하고 진화하는 것이다.
여기엔 ai 발전이 깊은 연관이 있는 것 같다.
고대 역사에서 정보를 찾을 땐 사람 간을 통해 정보가 교환되었고 기록했다.
이어 책이 등장하고 도서관이란 곳에서 정보를 찾았다.
이 이후에는 인터넷이 발명되고 사람들은 이제 인터넷 브라우저라는 곳에서 정보를 검색한다.
지금은 단순 인터넷 검색이 아닌 LLM에게 질문하여 정보를 찾는다. 이외의 활용법도 많다.
LLM이 현재 전세계적으로 어마어마한 영향력을 행사하고 있다.
그렇다면 과연, ai 발전은 앞으로도 꾸준할 것인지 나는 궁금하다.
앞으로도 발전한다고 확신할 수 있다면, 더 발전된 반도체 공정법들이 발견되고 개선되어야 할 것이다.
반대로, 현 시점의 ai 알고리즘에 한계가 존재하고 발전 한계가 명확하다면?
지금까지 cryo etch 관련 자료를 조사하던 과정 중,
ai 관련 정보를 많이 접하다 보니 자연스럽게 질문을 가지게 된 것 같다.
필자 주관적 해석으로는 이러하다.
ai의 발전, 특히 대규모 언어 모델 LLM(Large Language Model)의 한계는 명확하다고 생각한다. 근거는 고전적인 딥러닝 이론의 한계와 정보의 엔트로피 때문이라 생각한다.
그래서 필자는 몇 가지 가정을 하고 조사를 진행하기로 했다.
- LLM 기술의 바탕인 딥러닝 이론은 오래된 모델이기 때문에 발전 한계가 명확하다. 따라서 새로운 이론을 통해 모델을 학습시켜야 한다.
- 열역학의 엔트로피에서 아는 정보가 많아질수록 정보의 엔트로피는 증가하게 된다. 즉 "많이 알 수록 모른다"라는 의미이다.
2. AI에 대한 대중 vs 전문가 인식 차이
사람들은 ai에 대해 어떤 반응일까?
ai가 인간을 지배하거나 멸종시킨다?
공존한다?
안전하게 사용하도록 조정한다?
아래 표는 위 사이트에서 진행한 미국에서의 전문가와 일반인 간의 Ai 발전에 대한 생각 설문을 표로 정리한 것이다.
*출처:
3. Public and expert predictions for AI’s next 20 years
We explore how the public and experts anticipate potential positive and negative impacts of AI across key areas of life and society in the coming decades.
www.pewresearch.org
| 구분 | 전문가 | 일반인 |
|---|---|---|
| AI 미래 전망 (긍정적) | 🟢 높음 (56%) | 🔴 매우 낮음 (17%) |
| AI에 대한 감정 | 🟡 흥분, 기대 (47%) | 🔴 우려가 많음 (51%) |
| 개인의 유익 기대 | 🟢 긍정적 (76%) | 🟡 중립/낮음 (24%) |
| 일자리 전망 | 🟡 일부 감소 (39%) / 보완적 변화 강조 | 🔴 대폭 감소 예상 (64%) |
| 위험 직종 인식 | 🟡 운송, 제조, 언론 직종 위험 인식 (트럭 운전사 62%) | 🟡 유사 직종 위험 인식 (트럭 운전사 33%) |
| 종합 태도 | 🟢 “생산성, 업무 향상” 중심 | 🔴 “일자리 위협, 불확실” 중심 |
Ai의 발전은 전문가 입장에서는 대체적으로 긍정적이고, 대중에게는 부정적으로 다가오는 것을 알 수 있다.
1.1. ai 발전 속도
ai 발전이 이대로 쭉 이어질까?
ai가 발전하려면 투자 비용, 학습 시간, 데이터 이 3가지 요소가 반드시 필요하다.
돈, 시간은 충분하다 치자. 그러나 데이터가 완전한가?
아래 논문들을 일부를 발췌하며 분석할 것이다.
*참고문헌:
- Kaplan et al., 2020 (Scaling Laws for Neural Language Models):https://arxiv.org/abs/2001.08361
- Hoffmann et al., 2022 (Training Compute-Optimal LLMs, Chinchilla): https://arxiv.org/abs/2203.15556
- Caballero et al., 2023 (Broken Neural Scaling Laws): https://arxiv.org/abs/2210.14891
*출처 open ai:
https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
2025년 8월 7일, Chat GPT 5 출시로 ai에 많은 기대를 받고 있다.
gpt 5를 공개한 기업 open ai의 창업자 샘 알트만은 gpt5가 박사급 ai이라고 표현하며 자신감을 표했다.
하지만 이전 모델인 gpt-4o에 비해 그리 크지 못한 성능 향상, "오히려 성능 저하가 일어났다"라는 평가가 있다.
지금까지 GPT 모델의 경우
- GPT-1 → GPT-2: 약 8개월
- GPT-2 → GPT-3: 약 15개월
- GPT-3 → GPT-3.5: 약 22개월 (이 시점이 가장 길었음)
- GPT-3.5 → GPT-4: 약 12개월
- GPT-4 → GPT-4o: 약 14개월
- GPT-4o → GPT-5: 15개월
의 출시 간격을 가지고 있다.
출시 간격이 평균 약 14개월으로 편차가 그리 크지 않다.
그럼에도 LLM을 자주 애용하는 필자 주관으로는 어마무시한 성능 발전이 체감될 정도였다.
하지만 어느 순간 점점 성능이 거기서 거기인 비슷한 느낌이고 최근에 들어 그다지 크게 발전하지 못하다는 느낌을 받았다.
챗지피티의 Ai 모델은 학습 데이터가 아무리 많아도 한계가 있다는 의미가 아닐까.
분명한 건 학습 데이터가 많을수록, 시간이 많이 투자될수록 비용은 비례할 것이다.
그렇다면 다른 모델들의 경우는 어떨까?
또한 과연 들어간 만큼 나오는가?
좀 더 자세히 보자.
3. Scaling Laws
figure 0 출처:
Compute Trends Across Three Eras of Machine Learning
We’ve compiled a comprehensive dataset of the training compute of AI models, providing key insights into AI development.
epoch.ai

- X축 (Publication date)
모델이 발표된 연도. - Y축 (Training compute, FLOP)
해당 모델의 훈련에 사용된 총 연산량.- 로그 스케일로 표시 (10², 10⁴, …, 10²⁶ FLOP)
- 단위: FLOP(부동소수점 연산 횟수)
*컴퓨트(compute)는 단순히 "컴퓨터"가 아니라, AI 모델을 학습시키는 데 사용된 전체 연산량을 의미.
Epoch AI 팀(Sevilla 외)은 머신러닝 역사 전반에 걸친 훈련에 투입된 컴퓨트(compute) 추세를 정량적으로 분석했다.
1952년부터(~2010년 이전) 유명 모델 약 120여 개가 분석 대상이었다.
- 비슷한 출시 간격에 성능은 20 개월마다 두 배 증가.(무어의 법칙과 비슷).
- 학습 기술의 발전과 함께 컴퓨트 사용이 급증 → 약 6개월마다 두 배 증가.
- 대규모 상업 모델 등장, 전례 없는 컴퓨트 사용량 투입 중이며 10개월마다 약 2배 투입 증가.
2010년 이전, 연 성장속도는 1.4배씩 증가.
2010년 이후, 연 성장 속도는 4~5배씩 증가.
AI 발전의 속도를 이해하고, 컴퓨트 요구량이 얼마나 폭발적으로 증가하는지,
이에 따라 생겨날 거버넌스, 인프라, 에너지 이슈에 대응할 필요가 있음을 명확히 보여주는 분석이다.
결론은 어마어마한 자본과 시간이 ai 발전에 투자되고 있다는 점과 그에 따라 발전하고 있다는 점.
그런데, 과연 비례할까?
돈과 시간을 투자하는 만큼 성능이 잘 나오는 가를 따져봐야 한다.
Scaling Laws for Neural Language Models 논문을 살펴보자.
3.1. Scaling Laws의 교훈. feat. Scaling Laws for Neural Language Models
https://www.youtube.com/watch?v=QkPeMzr3Qz4
위 영상에서 이해에 도움을 받을 수 있을 겁니다.
아래 사이트의 Open ai에서 발표한 논문 Scaling Laws for Neural Language Models에 의하면
Scaling Laws for Neural Language Models
We study empirical scaling laws for language model performance on the cross-entropy loss. The loss scales as a power-law with model size, dataset size, and the amount of compute used for training, with some trends spanning more than seven orders of magnitu
arxiv.org
2020년 Open Ai에서 발표한 위 논문에 의하면 모델을 훈련하기 전에 성능을 미리 알 수 있는 공식이 있다고 한다.

언어 모델의 성능에 일정 패턴이 있음을 확인하였다.
모델의 학습, 즉 훈련 하기 전에 성능을 미리 알 수 있는 공식이 있다고 한다.
비디오, 이미지, 음성 등의 Ai 모델에서도 비슷한 성능 패턴을 보임을 확인했다고 한다.
논문의 일부인 Figure 1에서
y 축: % Test Loss은 성능을 의미. 오류일 확률로 이해하면 편하다.
x 축: 각 Compute(연산량), Dataset Size(데이터셋 크기), parameters(모델의 크기)
따라서 다시 정리해 보면, 언어 모델 성능이 모델 크기, 데이터셋 크기, 컴퓨팅 자원에 따라 예측 가능한 스케일링 법칙(power-law)을 따른다고 보았다.
하지만 그들은 "계산 효율적인 훈련(compute-efficient training)" 방식과 "과적합 방지(overfitting avoidance)"를 위한 데이터 요구량 사이에 모순이 발생한다고 지적했다.
쉽게 설명하자면, 가장 효율적인 학습은 느리게 데이터 주입량을 올리는 건데 모순적이게도 성능 계속 올리려면 더 많은 데이터가 더 빠르게 필요하다는 의미이다.
figure 1을 더 자세히 보면 예산이 10배 증가할 때, 모델 크기는 5.5배 증가, 훈련 토큰 수는 1.8배만 증가해야 한다고 예측했음.
그리고 이 예측은 정확했다.
반도체에서의 경우 노드가 작아질수록 단가나 결함률의 한계가 존재하는데, Ai는 2020년 당시 기준 단순히 크기만 키워도 성능이 좋아진다고 본다.
이는 마치 식각 장비의 챔버 크기를 늘리면 throughput(처리율)이 단순 증가한다고 믿는 것 과도 같은 것 같다.
3.3. 왜 GPT-4 이후 성능이 둔화됐는가
결론적으로 다음과 같이 정리할 수 있다.
- "모델을 키우면 좋아진다" – 하지만 일정한 데이터가 받쳐줘야 한다.
- "데이터가 더 많으면 더 좋아진다" – 하지만 모델 용량이 그 데이터를 소화할 수 있어야 한다.
- "컴퓨트 최적화" – 무조건 GPU를 더 때려 붓는 게 아니라, 적절한 균형이 필요하다.
그리고 챗지피티가 왜 gpt 4 모델 이후 모델 확장 및 성능이 눈에 띄게 둔화되었는지 이 논문의 figure 1 그래프를 기반으로 분석해 보자면 다음과 같이 정리할 수 있다.
Test Loss 감소 폭이 점점 둔화:
- Compute(연산량)와 Model Size(모델 크기)를 늘릴수록 초기에는 급격히 개선되지만, 일정 규모 이후 추가 투자 대비 성능 향상이 미미해진다.
- 실제 산업에서는 비용 대비 성능이 중요한데, 그래프는 "효율적 학습"은 완전 수렴 이전에 멈추게 됨을 보여줌.
- 즉, 무한히 큰 모델로 갈수록 효율성이 극도로 낮아진다.
LLM 언어 학습 시스템인 트랜스포머 기반 모델을 단순 키우는 것 만으로는 성능 한계 돌파가 어렵다.
3.4. 한계를 돌파하는 법은 없는가.
그렇다면 이 무한한 투자에도 불구하고 효율성이 낮아지는 문제를 어떻게 해결해야 할까?
아래 논문을 보자.
Hoffmann et al., 2022 – Training Compute-Optimal LLMs (Chinchilla): https://arxiv.org/abs/2203.15556
Training Compute-Optimal Large Language Models
We investigate the optimal model size and number of tokens for training a transformer language model under a given compute budget. We find that current large language models are significantly undertrained, a consequence of the recent focus on scaling langu
arxiv.org
Kaplan의 단순 Scaling은 비효율적이고 데이터의 양과 품질이 진짜 병목이라는 걸 밝힌다.
- 시사점:
모델만 키우는 건 최적이 아니다.
주어진 예산 안에서는 “데이터를 충분히 확보해야만 제대로 된 성능 향상”이 가능하다.
이 논문은 데이터의 품질과 다양성이 중요하다고 말하지만 그렇다고 스케일링 법칙의 한계를 깨 부술 근본적인 해결책이 될 수는 없다.
그렇다면 비교적 최근에 게재된 아래 논문을 보자.
Caballero et al., 2023 (Broken Neural Scaling Laws): https://arxiv.org/abs/2210.14891
Broken Neural Scaling Laws
We present a smoothly broken power law functional form (that we refer to as a Broken Neural Scaling Law (BNSL)) that accurately models & extrapolates the scaling behaviors of deep neural networks (i.e. how the evaluation metric of interest varies as amount
arxiv.org
단순 스케일링은 더 이상 성능 향상을 보장하지 않는다.
데이터 품질 & 다양성과 알고리즘 혁신이 함께 필요하다고 지적한다.
- 시사점:
“스케일링의 직선 법칙은 깨졌다.”
더 똑똑한 학습 방법(예: 새로운 학습 모델, 새로운 아키텍처, 데이터 정제)이 필수이다.

x 축: 모델의 성능(loss 값 로그 스케일)
y 축: 모델 성능에 영향을 주는 확장 변수(스케일링)
검은 선(BNSL)은 실제 관측된 성능의 스케일링 곡선으로 이해하면 된다.
Break 구간은 성능 향상의 추세를 의미한다.
slope 구간은 각 구간별 스케일링 기울기 즉, 효율을 의미한다.
*slope 3구간은 아직 인류가 도달해본 적 없는 가설인 외삽에 해당한다.
기울기가 음수일수록, 구간이 짧을수록 학습량 대비 성능 발전이 좋다는 의미이다.
실제 스케일링 동작은 사실 단순한 멱함수가 아니라 부러진(Broken) 스케일링 패턴을 보인다.
현 딥러닝 이론(Transformer 기반)으로는 이런 복잡한 패턴을 제대로 설명하거나 예측할 수 없으며, 새로운 학습 이론과 구조적 혁신이 필요한 것을 시사한다.
이 논문을 순서대로 요약하자면 다음과 같다.
- Kaplan et al., 2020 (Scaling Laws for Neural Language Models)는 스케일링 낙관론.
- Hoffmann et al., 2022 (Training Compute-Optimal LLMs, Chinchilla 논문)는 효율성의 문제.
- Caballero et al., 2023 (Broken Neural Scaling Laws)는 딥러닝 구조적 한계.
GPT-3까지 Kaplan 그래프와 유사, "더 크면 더 좋다" 패러다임이 통함 되었다.
GPT-4 이후: Broken Scaling처럼 투자 대비 성능 향상이 급감, 데이터 품질&알고리즘 한계가 부각되었다.
그런데, 필자는 궁금하다. 더 진보된 시스템이 등장한다고 해서 이 Scaling Laws를 깨부수거나 또 다른 가능성이 있는지 말이다.
잠시 열역학에서의 엔트로피를 주목해 보자.
질서에서 무질서로 즉, 평형을 향해 가는 것을 엔트로피로 설명하고 이해할 수 있다.
여기서 재밌는 점은 정보도 엔트로피로서 다룰 수 있다는 것이다.
4. 왜 갑자기 엔트로피?
정보의 엔트로피(Information Entropy)는 시스템의 불확실성, 즉 무지(ignorance)의 기대치를 나타내는 개념이다.
통계역학에서의 볼츠만 엔트로피가 미시 상태 수(Ω)에 대한 로그로 정의되는 것처럼, 정보 이론에서도 확률적 사건의 불확실성은 로그로 표현된다.
3.1. 열역학에서의 엔트로피
결론만 먼저 말하자면, ai의 학습은 한계가 있다.
다음 과정을 보라.
통계역학에서 엔트로피:

여기서 Ω는 가능한 미시 상태 수이다. 미시 상태가 많을수록(복잡할수록) 엔트로피가 증가한다.
정보 이론의 엔트로피도 마찬가지이다.
가능한 정보 상태가 많을수록 무지의 기대치가 증가한다.
3.2. 단일 사건의 정보량
어떠한 확률 분포가 있을 때, 정보의 양을 수치화시킬 수 있을까?
"Shannon"의 Information에서 I(p)는 정보량을 의미한다.
이 식은 다음과 같이 비례한다.

p는 이 사건이 일어날 확률이다.

확률 p가 낮을수록 정보량 I(p)는 높아진다.
왜냐하면,
예를 들어 동전 던지기에선 앞, 뒤만 나오므로 별로 놀랍지 않게 예측 가능하다.
하지만 10개 이상의 주사위를 굴려 같은 수만 나왔다면 아주 놀라울 것이다.
아주 낮은 확률로 발생하는 정보이니까 말이다.
따라서 환경이 다양할수록 접할 수 있는 정보량이 많아진다는 의미이다.
AI의 입장에서 학습하는 데이터는 단일 사건이 아닌, 수많은 사건의 집합이다.
그렇다면, 이 모든 사건을 평균적으로 봤을 때 우리는, 그리고 Ai는 얼마나 무지할까?
이 질문에 답하는 것이 정보의 기대치, 즉 엔트로피 ¯I이다.
정보 Information entropy 식은 다음과 같은 꼴로 엔트로피와 매우 밀접한 관계를 가진다.

여기에 볼츠만 상수만 붙이면 1)에서의 엔트로피 S 식이 된다.
- ¯I가 높다는 것은 시스템이 다양한 사건들로 이루어져 있고, 예측이 어렵다는 뜻이다.
- ¯I=0이면 완전히 확정된 상태로 더 이상 배울 정보가 없다.
즉, 드문 사건일수록 그 사건이 발생하면 더 많은 "새로운 정보"를 제공한다.
Ai 입장에서 학습이란, 이 ¯I 값을 0에 수렴하도록 만드는 행위라는 뜻으로 이해가 가능할 것이다.
3.3. AI 학습과 엔트로피

AI 모델의 학습 과정은 불확실성(¯I)을 줄여나가는 과정이다.
- 초기 모델: 데이터에 대한 확률 분포의 분산이 넓고, 엔트로피가 높다. = 많이 무지하다.
- 학습 진행: 패턴을 학습하면서 확률 분포가 집중되고, 엔트로피가 낮아진다. = 무지가 줄어든다.
- 한계점: 잡음, 불완전 데이터, 본질적 예측 불가능성 때문에 ¯I=0(완전한 지식)에 도달할 수는 없다.
3.4) Scaling Laws와의 시사점
이는 Kaplan et al.(2020)의 Scaling Laws가 보여준 패턴과 같다
그래프에서 Test Loss가 무한히 감소하지 않고 특정 값에 수렴하는 것은,
결국 AI가 줄일 수 있는 무지의 물리적 한계를 반영한다.
정보 이론적 관점에서 "무지를 줄여나가지만, 결코 완전히 없앨 수 없다"라는 사실과 같다.
Hoffmann et al.(2022)의 Compute-Optimal LLM과 Caballero et al.(2023)의 Broken Scaling Laws 역시 데이터 품질, 알고리즘 혁신 없이는 엔트로피 감소에 한계가 있다는 점을 지적한다.
5. 미래 전망
그렇다면 이 한계를 넘어설 방법은 무엇일까?
단순히 더 많은 데이터, 더 큰 모델, 더 많은 GPU를 투입하는 방식은 한계에 도달했다.
무지를 획기적으로 줄이는 새로운 방법론이 필요하다.
- Neuromorphic Computing: 인간 뇌의 병렬성과 효율성을 모방해 연산 자체의 에너지, 구조적 병목을 해결할 수 있다.
- Quantum AI: 큐비트 기반의 고차원 연산으로 학습 속도와 최적화 문제를 근본적으로 돌파할 가능성이 있다.
- Self-Supervised Learning: 방대한 비라벨 데이터를 활용해 데이터 품질, 양의 한계를 완화한다.

이러한 혁신들이 결합된다면, 현재의 정체기에 머물러 있는 AI 발전 곡선은 다시 한번 급격히 상승할 수 있다.
위 그림의 그래프처럼 4차 AI 붐이 일어나며 새로운 산업 혁명의 시작을 알릴 수도 있다.
아니면, 어쩌면 이미 그 전조가 시작된 것일지도 모른다.
하지만 현재 알 수 있는 사실은 AI의 최근 성능은 모델, 데이터, 연산을 크게 늘려도 성능 개선 폭이 분명히 둔화되고 있다는 점이다.
AI 성능 향상이 둔화되면, “칩을 더 많이 사서 성능을 올리는 전략”의 투자수익이 급격히 나빠지게 된다.
이에 고객은 “같은 전력 및 비용으로 더 많은 추론”을 가능하게 하는 반도체 제품을 원하게 된다.
따라서 반도체는 ‘수량’보다 ‘효율(성능/W·성능/$·지연/토큰)’ 중심으로 재편될 것이다.
즉, 해법은 ‘더 많은 칩’이 아니라 ‘같은 전력, 비용으로 더 많은 추론’을 가능하게 하는 효율이다.
그래서 Ai 및 반도체 산업에서는 소자량 확대보다 성능/W, J/bit 등과 같은 효율 지표를 우선해야 할 이유가 또 하나 생긴다.
구체적으로는 HBM의 pJ/bit 절감, GAA 기반 저전압 동작과 변동성(σVT, LER) 저감, 2.5D 및 3D 패키징의 열&신뢰성 개선, 저온 식각(Cryo)으로 결함, 드리프트 억제가 핵심이다.
특히, HAR 구조의 이방성, 균일도 확보, PID(Plasma-Induced Damage) 최소화, 엔드포인트 표준화와 챔버 매칭을 통해 가드밴드를 줄여야 실제 전력과 원가가 내려갈 것이다.
‘무한 스케일링’의 믿음보다 데이터 품질, 효율적 학습 & 보안을 병행하고, 현장에서는 수율 중심의 공정 혁신으로 AI으로 인한 이익이 비용&전력&탄소를 앞서게 해야 한다.
결론적으로 스케일링 법칙은 방향을 가늠하는 지도일 뿐이고,
앞으로 관련 분야의 기업에서 추구하게 될 목표는 양적 증설 보다는 품질·신뢰·효율일 것이다.
6. 결론
AI 학습의 본질은 무지를 줄이는 과정입니다.
따라서 AI의 진정한 발전은 엔트로피를 줄이는 새로운 패러다임 발견에 달려있다는 것입니다.
AI 학습은 무지를 줄이는 과정이지만 완전한 지식(¯I=0)에 도달할 수 없습니다.
현재 Scaling Laws가 보여주는 한계는 이 본질을 반영합니다.
기존의 트랜스포머 모델이 아니라 이와 다른 새로운 학습 모델 이론, 그리고 더 좋은 데이터, 혁신적인 아키텍처가 필요한 이유가 여기에 있습니다.
이에 따라 Ai 산업 관점에서는 단순 많은 반도체 보다는 품질&효율 측면 중심으로 돌아가기 시작할 것입니다.
여기서 중요한 점은 "양 보다는 품질 선호로 전환"이라는 뜻이 아니라, 이미 진행중인 "품질, 효율 기조가 AI로 인해 더 세게 가속된다"라는 점이 핵심입니다.
독자님들은 Ai의 4차 붐은 언제, 또 어떤 기술로 촉발될 것이라 생각하나요?
이상 Scaling Laws와 AI 학습의 한계를 연결해 주관적으로 분석한 글이었습니다.
긴 글 읽어주셔서 감사합니다.

'기타' 카테고리의 다른 글
| 개인정보처리방침 (0) | 2025.09.25 |
|---|---|
| 단조로운 우쿨렐레의 선율 속 고요한 불안, Komiku - Bleu (4) | 2024.02.06 |