갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
나는 솔로 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
추가한 갤러리가 없습니다.
0/0
타 갤러리 나는 솔로 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- [프라모델[]워썬더에 나오는 것들쫌 만들어옴 논네이스
- 블붕이의 쇼우따라잡기 1편 브이젤
- 오늘자 음바페 멀티골 레알 마드리드 골 모음...gif 메호대전종결2
- 할배들의 별난취미 그네들의 세상(27장) OnlyFilm
- <톰 크루즈> 최고의 영화 TOP 10..gif 이시라
- 콘탁스 T 유작 티셔츠.
- "내 딸 때렸어?"학교앞 11살 남아 학대 혐의 30대女 무죄.jpg ㅇㅇ
- 싱글벙글 핵포기 국가의 최후.jpg ㅇㅇ
- GPT한테 도마뱀 사육장 벽화 그림 도움 받아봄 리미네
- 이재명과 정치테마.MANHWA 애니머니
- 하와이 화재와 한국의 공통점…jpg 레인맨
- 프라모델로 나온 한국군 병기 - 빠진 것들 및 기타 3부 호순이
- 오싹오싹 소련 전쟁기계로 만든 소방차ㄷㄷ.jpg ㅇㅇ
- 여친이랑 싸울때 하는 말 28가지 관심종자
- 연예인들 돈 버는 속도ㄷㄷ ㅇㅇ
무자본 단붕이 일대기 -완- (스압주의)
https://youtu.be/ZLIl-TDPZu0시프 아이디는 재작년 겨울, 몇일 앞서서 만든 클레릭 아이디의 부캐로 시작했어처음 50렙대까지 키운 클레릭은 당시 무법지대였던 남던1 자리싸움에 지쳐 영끌해서 모은 그당시 거금이었던 700만메소로 시프 부캐에게 공6노목을 사줬어이후 본캐는 거의 육성을 멈추고 부캐였던 시프에게 올인했지당연히 몇일 찍먹만 하고 접을 줄 알아서 빅토시절 스샷은 안찍어놓은게 지금 생각하니까 너무 아쉽더라고대하던 오르비스가 처음 등장하고 배를 탔을 때의 벅찬 감정은 1년이 넘게 지난 지금까지도 절대 잊을 수 없는 감동적인 순간이었어당시시세 1500만짜리 3상 게타 두개로 전재산을 날려먹고 절대 다시는 작을 안하겠다 다짐도 해보고전국 전방단 협회에 가입도 했었어하지만 감동도 잠시, 메랜은 핵이 온사방에 창궐해서 당장 내일 망해도 이상하지 않은 상황이 되었지. 그때 핵을 잡으러 다니던 많은 자경단과 함께 나도 내가 좋아하는 게임을 지키기 위해 두발 열심히 뛰어다녔어핵이 판치고 렉은 심각하고 유저들은 떠나가는 상황 속에서도 시프들의 영원한 마음속 고향, 차가운 요람에서 꿋꿋이 사냥을 하곤 했지그러다가 절대 나올 것 같지 않던 3차전직이 드디어 출시되었어하지만 이게 앞으로의 1년간 겪을 시프마스터의 끔찍한 고난의 행군의 시작일줄이야 돌아온건 어딜가도 천대받던 저열한 성능의 시프마스터. 하지만 가진건 컨트롤과 메익밖에 없는 나는 파티에 끼기위해 갖은 노력을 다했어다행히 게임은 OTP가 도입되고 생성제한이 풀리면서 서서히 건강해져갔어루디브리엄이 출시되고 바로 달려가 서버 최초 주르건리스트도 먹었고그전까지 요람과 906, 차벌을 돌며 꾸준히 모은 돈으로 당시 1억이 넘던 공9노목을 공8+3500으로 스펙업 하였고당시 시세가 9000이었던 91칸디네를 사고 1달만에 1200이 되면서 감가를 -85%가량 먹기도 하고럭9망토, 스샷은 없지만 21후르츠와 10모스부츠까지 맞추면서 무과금 기준 당시로서는 졸업급 세팅을 맞췄어자쿰이 영영 안나올지도 모르던때 이런 막연한 목표를 정한것도 그때쯤이었지꿈에 그리던 100레벨을 달성하고는 빅토리아에 들릴 때 마다 시프 꿈나무들에게 훈지 이벤트도 진행했었어하지만 듀파강점기이던 이 시기, 답없는 구직난이도와 간당 200만메소 적자보며 200만경험치 먹는 구조에 사냥할 돈조차 다떨어져 두달동안 게임을 접었던 기억도 나자쿰을 가기 위해선 어찌되었든 레벨링을 했어야 되는데도저히 앵벌이까지 하면서 사냥도 같이 할 엄두가 안난 내가 폐사하지 않기 위해 택한 방법은 바로 틈틈이 장갑재료를 모아 제작해 파는거였어엘나스 초기에는 골드와이어스와 다크앰페러가 히트였는데 나중에는 블러드로버로 종목을 바꿨지. 또 이때 만난 큰손들이 나중에 공대운영하면서 템을 팔 때 도움이 많이 되었어이윽고 메익전형으로 자쿰공대에 낄 수 있는 레벨이 되어서 시프 30인팟도 참여해보고결국 자투도 먹고 트라이공대도 들어가 성공적으로 한사이클을 완주했어메랜 첫번째 목표였던 "자투 먹고 힘단또 하기"를 달성한거야하지만 메랜 여정은 아직 끝난게 아니었지. 바로 혼테일이 남았으니까 다행히도 다음 몇달간 메랜을 지배했던 망둥이메타에 시프마스터는 비록 남들에 비해 적자는 많이 나지만 드디어 1인분을 하고 파티에 껴줄 수 있는 존재가 되어 빠른 레벨링이 가능했어200만적자내고 200만 경험치를 먹던 듀파에 비해 100만적자에 400만경험치를 먹는 망둥이는 메소대 경험치 비율로 4배의 효율이었지시동때부터 망둥이까지 메익사냥하며 터트린 메소만 10억은 넘지 않을까?망둥이 사냥할 돈을 벌기 위한 가장 좋은 방법은 바로 자쿰이었는데, 당시 3차 후반에 다다를수록 시프마스터 TO가 없어지는 추세라 들어가기가 힘들었어간신히 공대에 한자리 끼면 나의 존재가치를 보여주기 위해 최소한의 메익비로 누가오던 무조건 내가 흰경을 먹는다는 마인드로 손가락 저리도록 돈을 뿌렸던 기억이 나4차전직 출시 전날 드디어 레벨 140을 찍고새해가 지나고그렇게 목놓아 기다리던 4차전직이 나왔는데... 문제가 생겼어지나가던 단또한테 훈지하는 수준이라던 부스20북 가격이 하늘도 모르고 떡상해렸어돈을 지르지도 않고 3차시절엔 적자때문에 하루하루 연명하던 나에게는 너무나 큰 돈하지만 섀도어 4차의 꽃인 부스를 30까지 안뚫는다는것은 성립이 불가능한 상황이었지이악물고 자쿰공대를 운영하며 모은 돈으로 트라이한 부메랑스텝이 두번이나 터졌을때 너무 스트레스를 받아서 진지하게 메접고민까지 했었어하지만 마음을 다잡고 결국 3트라이 끝에 성공한 부메랑 스텝. 여기에 들어간 메소는 2.7억+2.7억+2.5억 총 7.9억 메소페이크30까지 3트에 붙으면서 스킬 두개 마스터하는데만 7.9+1.7+1.5+1.0 총 11.1억 메소가 들어갔지만, 즐겼으면 된거라고 굳게 믿기로 했어...이제 혼테일을 갈 준비가 된거야옛메는 초등학생때 클레릭 45레벨 찍고 접었던 내가, 어쩌다보니 혼테일공대 공대장까지 맡게 되어 결국 클리어에 성공했어평균레벨 155렙 인원들로 모은 트라이공대로 시작해 처음 2트라이를 실패했을때는 정말 따라온 공대원들에게 미안하고 죽고싶다는 생각만 들었어하지만 다들 끝까지 해보자는 마음이었고, 나도 매일같이 피드백하고 자기전에 혼테일 격파방송 다시보기를 보고 연구하며 잠이드는 날이 반복되었기에 결국 해낼 수 있었다고 생각해처음에만 해도 3시간 가까이 걸리던 트라이를 공대원들 스펙업도 하고 새로운 빌드 연구나 실험도 하면서 그다음엔 2시간10분, 그다음엔 1시간50분 이런식으로 줄여나가는게 나름의 재미였고 나중에는 1시간10분대까지 줄이게 되었어옛날엔 상상도 못했던 고가의 아이템과 도파민도 만져보고틈틈이 자쿰을 돌며 투구 먹자 손님들에게 좋은 리뷰를 받는것 또한 하나의 기쁨이었지그리고 마침내, 꿈만같던 알혼목까지 먹음으로서 두번째 목표까지 달성했어그런데...그래서, 이제는 뭐하지?라는 질문이 사실 언젠가부터 들기 시작하더라고.공대를 뛰기 전만 해도 하루 2탐정도 여유롭게 사냥했었는데, 이제는 사냥도 제대로 못하고 자쿰과 혼테일 두개의 공대장만 맡더라도 현생에 지장이 갈 정도로 너무나 많은 시간과 스트레스가 들었고, 어느 순간부터는 이게 게임이 아니라 일같은 느낌이 들었어물론 메소는 많이 벌리지만, 앞으로 고렙컨텐츠는 최소한 1년은 안나오고 똑같은 리프레 사냥터, 똑같은 자쿰, 똑같은 혼테일 갈건데 스펙업도 할만큼 한 상태에서 메소 쌓아서 뭐함? 이런 생각이 들더라고. 게임을 하는데 재미가 없으면 할 이유가 없잖아거기다 섀도어는 현시점에서도 보스가기 힘든데 렙을 치더라도 앞으로 나올 보스에서 자리는 더더욱 없을테고...그래서 솔직한 심정으로 진짜 쌀먹할거 아니면 더이상 게임을 할 이유가 없고진짜 옛메로, 그리고 섀도어로 즐길 만한 컨텐츠는 이제 다 즐기고 할건 다한거 아닐까... 생각이 들었어그래서 오랫동안 정들었던 공대를 전부 정리하고아예 메접은 아니지만 사냥도 쉬고 업데이트때만 가끔씩 놀러오다가 신규직업 나오면 다시 찍먹해보려고해마지막으로 레벨도 낮고 어디가서 자랑할 정도는 안되지만 1년 반동안 게임하며 만든 무자본 섀도어 최종스펙이고, 템과 메소는 그대로 들고가서 해적 키울 때 쓰려고1년 반이라는 길다면 길고 짧다면 짧은 시간동안 정말 재밌게 하고 좋은사람들도 많이 만나서 좋은 추억 쌓았다고 생각하고, 이제는 쉬어야할 때가 온 것 같네긴 이야기 봐줘서 고맙고 혹시나 댓글로 시프에 대해서 아무거나 물어보면 최대한 성의껏 답해줄게그럼 다들 즐메!!!
작성자 : v못세v고정닉
(구글) LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기
LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기2025년 3월 21일 | 마리아노 샤인(Mariano Schain), 소프트웨어 엔지니어, 아리엘 골드스타인(Ariel Goldstein), 방문 연구원, 구글 리서치후속 발화 예측과 문맥 임베딩을 활용한 과제 적응에 최적화된 대규모 언어 모델(LLM)은 인간과 거의 비슷한 수준으로 자연어를 처리할 수 있습니다. 본 연구는 인간의 뇌 신경 활동이 일상 대화를 처리하는 과정에서 LLM 내부의 음성 및 언어 관련 문맥 임베딩과 선형적으로 정렬된다는 것을 보여줍니다.인간의 뇌는 일상 대화 중에 자연어를 어떻게 처리할까요? 이론적으로 LLM과 인간 언어에 대한 기호적 심리언어학 모델은 자연어를 부호화하는 방식에 있어 근본적으로 다른 계산 프레임워크를 제시합니다. LLM은 기호적인 품사나 통사 규칙에 의존하지 않습니다. 대신 다음 단어 예측이나 강화 학습으로 개선된 생성과 같은 간단한 자기 지도 학습 목표를 사용합니다. 이를 통해 LLM은 실제 텍스트 코퍼스에서 추출한 문맥에 맞는 언어적 결과물을 생성하며, 자연스러운 음성(소리)과 언어(단어)의 통계적 구조를 다차원 임베딩 공간에 효과적으로 부호화합니다.LLM의 성공에 영감을 받아, 저희 구글 리서치 팀은 프린스턴 대학교, 뉴욕 대학교(NYU), 히브리 대학교(HUJI)와 협력하여, 인간의 뇌와 딥러닝 언어 모델이 각자의 뛰어난 능력을 발휘하며 자연어를 처리하는 방식의 유사점과 차이점을 탐구하고자 했습니다. 지난 5년간 일련의 연구를 통해, 저희는 특정 딥러닝 모델의 내부 표현(임베딩)과 자연스러운 대화 중 인간 뇌 신경 활동 사이의 유사성을 탐구했으며, 이를 통해 딥러닝 언어 모델의 임베딩이 인간 뇌의 언어 처리 방식을 이해하기 위한 틀로서 강력한 잠재력을 지니고 있음을 입증했습니다. 저희는 딥러닝 언어 모델이 생성하는 단어 수준 내부 임베딩이 인간 뇌에서 음성 이해 및 발화와 관련된 기존에 알려진 뇌 영역들의 신경 활동 패턴과 정렬된다는 것을 입증합니다.유사한 임베딩 기반 언어 표현네이처 인간 행동(Nature Human Behaviour)에 발표된 저희의 가장 최근 연구는 트랜스포머 기반 음성-텍스트 변환 모델의 내부 표현과 실제 대화 중 인간 뇌의 신경 처리 순서 간의 정렬을 조사했습니다. 이 연구에서 저희는 자발적인 대화 중에 두개 내 전극을 사용하여 기록된 신경 활동을 분석했습니다. 저희는 신경 활동 패턴을 Whisper 음성-텍스트 변환 모델이 생성한 내부 표현(임베딩)과 비교했으며, 모델의 언어적 특징이 뇌의 자연스러운 음성 처리 과정과 어떻게 정렬되는지에 초점을 맞추었습니다.듣거나(음성 이해 중) 말하는(음성 발화 중) 모든 단어에 대해, 음성-텍스트 변환 모델에서 두 가지 유형의 임베딩이 추출되었습니다. 즉, 모델의 음성 인코더에서 추출한 음성 임베딩과 모델의 디코더에서 추출한 단어 기반 언어 임베딩입니다. 각 대화 속 단어마다 음성-텍스트 임베딩을 이용해 뇌의 신경 신호를 예측하는 선형 변환 값을 추정했습니다. 이 연구는 인간 뇌의 음성 영역 신경 활동과 모델의 음성 임베딩 간, 그리고 뇌의 언어 영역 신경 활동과 모델의 언어 임베딩 간의 놀라운 정렬을 밝혀냈습니다. 이러한 정렬 관계는 피험자의 언어 이해에 대한 뇌 신경 반응 순서를 모델링한 아래 애니메이션에서 확인할 수 있습니다.피험자가 "How are you doing?" 문장을 들을 때 언어 이해에 대한 뇌 신경 반응 순서.청자가 입력되는 음성 단어를 처리할 때, 우리는 일련의 신경 반응을 관찰합니다. 처음에 각 단어가 발화될 때, 음성 임베딩은 상측두회(STG)를 따라 있는 음성 영역의 피질 활동을 예측할 수 있게 해줍니다. 수백 밀리초 후, 청자가 단어의 의미를 해독하기 시작하면, 언어 임베딩은 브로카 영역(하전두회(IFG)에 위치)의 피질 활동을 예측합니다.피험자의 발화 과정을 살펴보면, 우리는 다른 (역순의!) 신경 반응 순서를 관찰합니다.피험자가 "feeling fantastic"이라고 답할 때 언어 발화에 대한 신경 반응 순서.이 정렬을 더 자세히 살펴보면, 단어를 발화하기 약 500밀리초 전에 (피험자가 다음 단어를 발화할 준비를 할 때), 언어 임베딩(파란색으로 표시)이 브로카 영역의 피질 활동을 예측합니다. 수백 밀리초 후 (여전히 단어 시작 전), 화자가 조음 발화 순서를 계획할 때 음성 임베딩(빨간색으로 표시)이 운동 피질(MC)의 신경 활동을 예측합니다. 마지막으로, 화자가 단어를 발화한 후, 화자가 자신의 목소리를 들으면서 음성 임베딩이 STG 청각 영역의 신경 활동을 예측합니다. 이러한 역동적인 과정은 언어 영역에서 무엇을 말할지 계획하는 것부터 시작하여, 운동 영역에서 어떻게 발화할지 계획하고, 마지막으로 음성 지각 영역에서 발화된 내용을 모니터링하는 신경 처리 순서를 반영합니다.전체 뇌 분석의 정량적 결과는 아래 그림과 같습니다. 각 단어에 대해 해당 단어의 음성 임베딩(빨간색)과 언어 임베딩(파란색)을 입력값으로 사용하여, 단어 시작 시점(그림의 x축 값 0)을 기준으로 -2초에서 +2초 사이의 다양한 시간 지연(time lag)에 따른 각 전극의 신경 반응을 예측했습니다. 이는 음성 발화(왼쪽 패널)와 음성 이해(오른쪽 패널) 중에 수행되었습니다. 관련 그래프는 다양한 뇌 영역의 전극에서 시간 지연에 따른 모든 단어에 대한 신경 활동 예측의 정확도(상관관계)를 보여줍니다.발화 및 이해 시 인간 뇌 신호와 음성/언어 임베딩의 부합도 분석.음성 발화 중에는, IFG의 언어 임베딩(파란색)이 감각운동피질의 음성 임베딩(빨간색)보다 먼저 최고조에 달하고, 그 뒤를 이어 STG에서 음성 부호화가 최고조에 달하는 것이 분명합니다. 반대로, 음성 이해 중에는 최고 부호화 시점이 단어 시작 이후로 이동했으며, STG의 음성 임베딩(빨간색)이 IFG의 언어 부호화(파란색)보다 훨씬 먼저 최고조에 달했습니다.종합적으로, 저희 연구 결과는 음성-텍스트 변환 모델 임베딩이 자연스러운 대화 중 언어 처리의 신경 기반을 이해하기 위한 일관된 프레임워크를 제공함을 시사합니다. 놀랍게도, Whisper는 뇌가 언어를 처리하는 방식을 고려하지 않고 오직 음성 인식을 위해서만 개발되었음에도 불구하고, 저희는 그 내부 표현이 자연스러운 대화 중 신경 활동과 정렬된다는 것을 발견했습니다. 이러한 정렬은 보장된 것이 아니었습니다. 만약 부정적인 결과가 나왔다면 임베딩과 신경 신호 간의 상관관계가 거의 없거나 전혀 없음을 보여주었을 것이며, 이는 모델의 표현이 뇌의 언어 처리 메커니즘을 포착하지 못했음을 의미했을 것입니다.LLM과 인간 뇌 간의 정렬을 통해 밝혀진 특히 흥미로운 개념 중 하나는 신경 처리에서의 '부드러운 계층 구조(soft hierarchy)'라는 개념입니다. IFG와 같이 언어에 관여하는 뇌 영역은 단어 수준의 의미론적 및 통사론적 정보를 우선시하는 경향이 있지만(언어 임베딩(파란색)과의 더 강한 정렬로 나타남), 더 낮은 수준의 청각적 특징도 포착합니다(음성 임베딩(빨간색)과의 낮지만 유의미한 정렬에서 분명히 드러남). 반대로, STG와 같은 하위 음성 영역은 음향 및 음소 처리를 우선시하는 경향이 있지만(음성 임베딩(빨간색)과의 더 강한 정렬로 나타남), 단어 수준 정보도 포착합니다(언어 임베딩(파란색)과의 낮지만 유의미한 정렬에서 분명히 드러남).LLM과 인간 뇌가 공유하는 목표 및 기하학적 구조LLM은 간단한 목표, 즉 순서대로 다음 단어를 예측하는 것을 사용하여 자연어를 처리하도록 훈련됩니다. 네이처 뉴로사이언스(Nature Neuroscience)에 발표된 논문에서, 저희는 LLM과 유사하게 청자의 뇌 언어 영역이 다음 단어가 발화되기 전에 예측하려고 시도한다는 것을 발견했습니다. 더욱이, LLM처럼, 단어 시작 전 청자의 예측에 대한 확신 수준은 단어가 발화된 후 그들의 놀람 수준(예측 오류)을 조절합니다. 이러한 발견은 자기회귀 LLM과 인간 뇌가 공유하는 시작 전 예측, 시작 후 놀람, 그리고 임베딩 기반 문맥 표현이라는 근본적인 계산 원리에 대한 강력한 새로운 증거를 제공합니다. 네이처 커뮤니케이션즈(Nature Communications)에 발표된 또 다른 논문에서, 저희 팀은 LLM의 임베딩 공간 기하학적 구조에 포착된 자연어 단어 간의 관계가 언어 영역에서 뇌에 의해 유도된 표현의 기하학적 구조(즉, 뇌 임베딩)와 정렬된다는 것도 발견했습니다.LLM과 인간 뇌의 자연어 처리 방식 차이점인간의 뇌와 트랜스포머 기반 LLM이 자연어 처리에서 근본적인 계산 원리를 공유하지만, 그 기저의 신경 회로 구조는 현저하게 다릅니다. 예를 들어, 후속 연구에서 저희는 트랜스포머 기반 LLM의 계층 간 정보 처리 방식과 인간 뇌의 처리 방식을 비교 조사했습니다. 저희 팀은 LLM과 인간 뇌의 언어 영역에서 계층 간 비선형 변환은 유사하지만, 그 구현 방식은 상당히 다르다는 것을 발견했습니다. 수백에서 수천 개의 단어를 동시에 처리하는 트랜스포머 아키텍처와 달리, 언어 영역은 언어를 순차적으로, 단어별로, 순환적으로, 그리고 시간적으로 분석하는 것으로 보입니다.요약 및 향후 방향저희 팀 연구에서 축적된 증거는 인간의 뇌와 딥러닝 모델이 자연어를 처리하는 방식 사이에 몇 가지 공유된 계산 원리를 밝혀냈습니다. 이러한 결과는 딥러닝 모델이 통계적 학습, 블라인드 최적화(blind optimization), 그리고 자연 현상과의 직접적인 부합 원칙에 기반하여 자연어를 처리하는 뇌의 신경 코드를 이해하기 위한 새로운 계산 프레임워크를 제공할 수 있음을 시사합니다. 동시에, 신경 구조, 언어 데이터의 유형 및 규모, 트랜스포머 기반 언어 모델의 훈련 프로토콜과, 인간의 뇌가 사회적 환경에서 자연스럽게 언어를 습득하는 생물학적 구조 및 발달 단계 사이에는 상당한 차이가 있습니다. 앞으로 저희의 목표는 정보 처리 및 실제 세계에서의 기능 수행 능력이 향상된, 생물학적으로 영감을 받은 혁신적인 인공 신경망을 만드는 것입니다. 저희는 인간의 경험과 더 잘 맞는 신경 구조, 학습 프로토콜, 훈련 데이터를 적용하여 이를 달성할 계획입니다.감사의 말씀본문에 기술된 작업은 구글 리서치가 프린스턴 대학교 신경과학 연구소 및 심리학과 해슨 랩(Hasson Lab), 히브리 대학교 경영대학원 및 인지과학과 딥코그니션랩(DeepCognitionLab), 그리고 뉴욕대 랑곤 종합 간질 센터(NYU Langone Comprehensive Epilepsy Center) 연구원들과 장기간 협력한 결과입니다.- 앤트로픽과 구글, LLM은 인간의 뇌와 거의 동일하게 작동한다앤스로픽과 딥마인드가 현재의 LLM이 추론 및 언어 능력 측면에서 인간의 뇌와 거의 동일하게 작동한다는 것을 보여주는 유사한 논문들을 발표했습니다.이는 "과연 실제로 추론하는 것인가"에 대한 기존의 논쟁 구도를 바꿔 놓을 것입니다.(앤트로픽) 거대 언어 모델의 사고 과정 추적하기 - 번역본 보기(구글) LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기 - 번역본 보기
작성자 : 초존도초고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.