갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
FC 온라인 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
0/0
타 갤러리 FC 온라인 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- 서울 스피드런, 비전3, 올림푸스 XA ND4
- 연예인 산불 기부 트위터 한녀들 반응.jpg ㅇㅇ
- 프라모델로 나온 한국군 병기 - 빠진 것들 및 기타 3부 호순이
- [프라모델[]워썬더에 나오는 것들쫌 만들어옴 논네이스
- 싱글벙글 쿠팡 진상촌...jpg ㅇㅇ
- "내 딸 때렸어?"학교앞 11살 남아 학대 혐의 30대女 무죄.jpg ㅇㅇ
- 지디 라이브 웃음벨 실시간 콘서트 ㅇㅇ
- 싱글벙글 영국촌 정조대보추애널
- 싱글벙글 무식한 사람이 지적 허영을 가진 대표적 사례 폰즈케잌
- 1950년대 일본의 풍경들 미친왕
- 커넥티드클루 개발일지 25. Alpheratz*
- 제발 좀 쓰지 말라면 쓰지 마 (webp 23pic) 상반칙불궤
- 핑계고) 유재석 문자가 보이스피싱인줄 알고 연락 안한 이광수.jpg ㅇㅇ
- 개는솔로 기념 테타의 아내 꼬신 썰 칠게
- 감동감동 매일 밤 가게를 찾아와 과자를 두고 가는 노숙자 수인갤러리
싱글벙글 최홍만 이야기 -전설의 시작-
키 218cm 몸무게 160kg의 신체스펙에 천하장사 1회 백두장사 3회라는 경력을 가진 씨름선수가있었다.그의 이름은 테크노 골리앗 최홍만자신의 압도적인 신체로 천하장사 1회, 백두장사 3회라는 경력과 엔터테이너적 요소를 갖춘 씨름계의 레전드 선수 중 한명이었다.그러나 그런 그도 망해가는 협회의 삽질로 망해가는 씨름판을 살릴 수도 없었고단식투쟁까지 했음에도 자신의 씨름단이 해체되는것을 막지 못했다.그렇게 실업자가 된 그에게 손을 뻗어준 것은 바로 일본에서 인기몰이를 하고 있는격투기 단체 k1이었다하지만 그의 k1 데뷔는 살짝 잡음이 있었다무능한 씨름계는 오히려 제 살길 찾겠다는 최홍만을 씨름의 발전저해, 민족혼 수호 등의 소리까지 하며 비난했으며k1에 진출하면 제명하겠다고 협박을 했으며 결국 최홍만이 k1에 진출하자 바로 영구 제명시키고 기록을 삭제해버린다.이런 씨름계의 뒷끝을 뒤로 하고 최홍만은2005년 서울 GP에서 일본의 전 스모 선수인 와카쇼오를 상대로 데뷔전을 가지게된다초반에는 데뷔전이라서 감을 못잡는 듯한 모습을 보여주었으나 결국 상대가 참피급이라는 것을 깨닫고와카쇼오의 붕쯔붕쯔 펀치를 자신의 피지컬로 말그대로 박살을 내버리며 첫승을 가진다.그리고 4강에 진출한 최홍만은......................키 204 몸무게 223kg의 아케보노 타로와 붙게되는데 최홍만의 압승으로 끝났다그렇게 하루에 2승을 챙기고 결승에 진출한 최홍만은2004 WGP 4강까지 올라간 카오클라이 카엔노르싱과 대결하게 된다.카오클라이는 무제한급인 k1에서도 독보적으로 작은 체구(키 180cm, 체중 78kg)를 가진 선수였지만 특유의 기동력과 무에타이 스킬을활용해 자신보다 더 큰 파이터들을 상대로 승리를 쌓아온 파이터로서 이전에 싸운 전 스모선수들과는 비교가안될정도로 강한 선수였다.하지만 최홍만의 피지컬은 이전에 상대해왔던 거구들을 훨씬 더 상회했기에카오클라이의 입장에서는 자신의 공격은 닿지 않고 상대의 공격은 자신에게 닿는압도적으로 불리한 상황이었다.하지만 격투기 경혐차이가 하늘과 땅차이였기에 경기는 연장까지 갔고 그 결과....더 공격적이게 경기한 최홍만이 3대0 만장일치 판정으로 승리를 하며 GP 우승을 차지하게 된다하루만에 데뷔전을 포함하여 3연승 그리고 GP우승이라는 역대급 커리어를 달성한 최홍만은이렇게 그의 전설을 쓰기 시작했다- 싱글벙글 최홍만 이야기 -끝없는 상승- [시리즈] 최홍만 이야기 · 싱글벙글 최홍만 이야기 -전설의 시작- · 싱글벙글 최홍만 이야기 -끝없는 상승- · 싱글벙글 최홍만 이야기 -지속되는 상승세- · 싱글벙글 최홍만 이야기 -전성기의 마지막 불꽃- · 싱글벙글 최홍만 이야기 -몰락- · 싱글벙글 최홍만 이야기 -더한 몰락- GP 우승 이후 최홍만은 프로레슬러인 톰 하워드(193cm, 116kg)를 상대로 압도적인 피지컬을 바탕으로 한 저돌적인 러쉬로 압살하며 클린치 이후 니킥으로 ko 승을 거둔다.이때 니킥으로 톰 하워드의 이마를 터트려 출혈을 일으키는 충격적인 장면 때문에 최홍만의 니킥은 살인니킥이라는 이름으로 불리게 된다그 다음 경기는 이 양반이었으므로 넘어가도록 하고데뷔후 5연승을 달린 최홍만에게 드디어 제대로 된 상대가 나타난다.바로 야수 밥샙(194cm, 128kg)을 상대하게 된다.당시 밥샙은 후스트를 제외하고는 미르코 크로캅, 레이세포 등의 상위급 파이터에게는 패배하면서 기량의 한계를 보여줬다 그러나 상위급 파이터에게만 그랬지 상위급 파이터가 없었던 히로시마GP에서 우승을 하는 등만만치 않은 파이터임에는 확실했기에 사람들은 최홍만에게 큰기대와 걱정을 가지게 된다.그리고 경기 당일 최홍만은 놀랍게도 피지컬의 끝판왕이라고 불리던 밥샙을 상대로 절대로 밀리지않는 정면승부를펼치며 말그대로 힘과 힘이 맞붙는 싸움이 어떤 것인지를 보여주었다. 이후 최홍만은 밥 샙보다 더 큰 키와 우월한 맷집을 바탕으로 밥 샙을 점점 더 몰아붙이게된다결국 마지막 3R에서 클린치 이후 니킥으로 밥 샙을 다운시키며결국 2대0 판정승을 거두며 밥샙에게서 피지컬 끝판왕의 칭호를 빼앗고 자신의 실력이 통한다는 것을 증명하게된다. 이 승리를 바탕으로 최홍만은 한국인 최초로 k1 WGP 8강에 진출하고 한층 더 높은 상대와 상대하게 되는데2004년 WGP 우승자인 레미 본야스키(193cm, 108kg)와 대결하게 된다. 만약에 최홍만의 승리를 한다면 단숨에 상위급 강자라인에 등극할 수 있는 경기였기에 최홍만에게는 중요한 경기였고 6연승이나 달리고 있던 시기였기에 사람들은 큰 기대를 품게된다경기 양상은 최홍만의 자신의 피지컬로 압박하고 본야스키는 그것을 피하고 막아내며 로우킥으로 짤짤이를 하는 식으로 진행됐다그러나 최홍만은 그런 본야스키의 기동력과 테크닉에 밀려버리며 로우킥을 무려 36대나 맞아버리며유효타에서 밀려 결국 3대0 판정패를 당하며 6연승 끝에 첫패를 기록하게 된다.여기서 한계를 보여주기는 했지만 전년도 챔피언이 상대였고 그 챔피언을 상대로 판정까지 간 최홍만에게 사람들은 박수를 보낸다.그리고 본야스키에게 당한 로우킥에 다리에 큰부상을 입은 최홍만은 대략 5개월간의 공백기를 가지게 된다- 생글벙글 최홍만vs밥샙 세상은 넓다밥샙 194cm 128kg 210cm리치를 가졌던 밥샙은 미식축구 출신이였지만 미친듯한 똥파워 붕붕훅으로 준수한 킥복싱 베이스 챔프 어네스트 후스트를 두번이나 승리할정도로 강했음 이후 쵸몬도하고 경기를 지녔는데 스킬을 씹어먹는 피지컬을 자랑했덤 밥샵은 자기보다 더한 피지컬을 만나고 존나게 맞고 패배함 "뭐 저런새끼가 다있노......"라며 경악하는 밥샵
작성자 : ㅇㅇ고정닉
(구글) LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기
LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기2025년 3월 21일 | 마리아노 샤인(Mariano Schain), 소프트웨어 엔지니어, 아리엘 골드스타인(Ariel Goldstein), 방문 연구원, 구글 리서치후속 발화 예측과 문맥 임베딩을 활용한 과제 적응에 최적화된 대규모 언어 모델(LLM)은 인간과 거의 비슷한 수준으로 자연어를 처리할 수 있습니다. 본 연구는 인간의 뇌 신경 활동이 일상 대화를 처리하는 과정에서 LLM 내부의 음성 및 언어 관련 문맥 임베딩과 선형적으로 정렬된다는 것을 보여줍니다.인간의 뇌는 일상 대화 중에 자연어를 어떻게 처리할까요? 이론적으로 LLM과 인간 언어에 대한 기호적 심리언어학 모델은 자연어를 부호화하는 방식에 있어 근본적으로 다른 계산 프레임워크를 제시합니다. LLM은 기호적인 품사나 통사 규칙에 의존하지 않습니다. 대신 다음 단어 예측이나 강화 학습으로 개선된 생성과 같은 간단한 자기 지도 학습 목표를 사용합니다. 이를 통해 LLM은 실제 텍스트 코퍼스에서 추출한 문맥에 맞는 언어적 결과물을 생성하며, 자연스러운 음성(소리)과 언어(단어)의 통계적 구조를 다차원 임베딩 공간에 효과적으로 부호화합니다.LLM의 성공에 영감을 받아, 저희 구글 리서치 팀은 프린스턴 대학교, 뉴욕 대학교(NYU), 히브리 대학교(HUJI)와 협력하여, 인간의 뇌와 딥러닝 언어 모델이 각자의 뛰어난 능력을 발휘하며 자연어를 처리하는 방식의 유사점과 차이점을 탐구하고자 했습니다. 지난 5년간 일련의 연구를 통해, 저희는 특정 딥러닝 모델의 내부 표현(임베딩)과 자연스러운 대화 중 인간 뇌 신경 활동 사이의 유사성을 탐구했으며, 이를 통해 딥러닝 언어 모델의 임베딩이 인간 뇌의 언어 처리 방식을 이해하기 위한 틀로서 강력한 잠재력을 지니고 있음을 입증했습니다. 저희는 딥러닝 언어 모델이 생성하는 단어 수준 내부 임베딩이 인간 뇌에서 음성 이해 및 발화와 관련된 기존에 알려진 뇌 영역들의 신경 활동 패턴과 정렬된다는 것을 입증합니다.유사한 임베딩 기반 언어 표현네이처 인간 행동(Nature Human Behaviour)에 발표된 저희의 가장 최근 연구는 트랜스포머 기반 음성-텍스트 변환 모델의 내부 표현과 실제 대화 중 인간 뇌의 신경 처리 순서 간의 정렬을 조사했습니다. 이 연구에서 저희는 자발적인 대화 중에 두개 내 전극을 사용하여 기록된 신경 활동을 분석했습니다. 저희는 신경 활동 패턴을 Whisper 음성-텍스트 변환 모델이 생성한 내부 표현(임베딩)과 비교했으며, 모델의 언어적 특징이 뇌의 자연스러운 음성 처리 과정과 어떻게 정렬되는지에 초점을 맞추었습니다.듣거나(음성 이해 중) 말하는(음성 발화 중) 모든 단어에 대해, 음성-텍스트 변환 모델에서 두 가지 유형의 임베딩이 추출되었습니다. 즉, 모델의 음성 인코더에서 추출한 음성 임베딩과 모델의 디코더에서 추출한 단어 기반 언어 임베딩입니다. 각 대화 속 단어마다 음성-텍스트 임베딩을 이용해 뇌의 신경 신호를 예측하는 선형 변환 값을 추정했습니다. 이 연구는 인간 뇌의 음성 영역 신경 활동과 모델의 음성 임베딩 간, 그리고 뇌의 언어 영역 신경 활동과 모델의 언어 임베딩 간의 놀라운 정렬을 밝혀냈습니다. 이러한 정렬 관계는 피험자의 언어 이해에 대한 뇌 신경 반응 순서를 모델링한 아래 애니메이션에서 확인할 수 있습니다.피험자가 "How are you doing?" 문장을 들을 때 언어 이해에 대한 뇌 신경 반응 순서.청자가 입력되는 음성 단어를 처리할 때, 우리는 일련의 신경 반응을 관찰합니다. 처음에 각 단어가 발화될 때, 음성 임베딩은 상측두회(STG)를 따라 있는 음성 영역의 피질 활동을 예측할 수 있게 해줍니다. 수백 밀리초 후, 청자가 단어의 의미를 해독하기 시작하면, 언어 임베딩은 브로카 영역(하전두회(IFG)에 위치)의 피질 활동을 예측합니다.피험자의 발화 과정을 살펴보면, 우리는 다른 (역순의!) 신경 반응 순서를 관찰합니다.피험자가 "feeling fantastic"이라고 답할 때 언어 발화에 대한 신경 반응 순서.이 정렬을 더 자세히 살펴보면, 단어를 발화하기 약 500밀리초 전에 (피험자가 다음 단어를 발화할 준비를 할 때), 언어 임베딩(파란색으로 표시)이 브로카 영역의 피질 활동을 예측합니다. 수백 밀리초 후 (여전히 단어 시작 전), 화자가 조음 발화 순서를 계획할 때 음성 임베딩(빨간색으로 표시)이 운동 피질(MC)의 신경 활동을 예측합니다. 마지막으로, 화자가 단어를 발화한 후, 화자가 자신의 목소리를 들으면서 음성 임베딩이 STG 청각 영역의 신경 활동을 예측합니다. 이러한 역동적인 과정은 언어 영역에서 무엇을 말할지 계획하는 것부터 시작하여, 운동 영역에서 어떻게 발화할지 계획하고, 마지막으로 음성 지각 영역에서 발화된 내용을 모니터링하는 신경 처리 순서를 반영합니다.전체 뇌 분석의 정량적 결과는 아래 그림과 같습니다. 각 단어에 대해 해당 단어의 음성 임베딩(빨간색)과 언어 임베딩(파란색)을 입력값으로 사용하여, 단어 시작 시점(그림의 x축 값 0)을 기준으로 -2초에서 +2초 사이의 다양한 시간 지연(time lag)에 따른 각 전극의 신경 반응을 예측했습니다. 이는 음성 발화(왼쪽 패널)와 음성 이해(오른쪽 패널) 중에 수행되었습니다. 관련 그래프는 다양한 뇌 영역의 전극에서 시간 지연에 따른 모든 단어에 대한 신경 활동 예측의 정확도(상관관계)를 보여줍니다.발화 및 이해 시 인간 뇌 신호와 음성/언어 임베딩의 부합도 분석.음성 발화 중에는, IFG의 언어 임베딩(파란색)이 감각운동피질의 음성 임베딩(빨간색)보다 먼저 최고조에 달하고, 그 뒤를 이어 STG에서 음성 부호화가 최고조에 달하는 것이 분명합니다. 반대로, 음성 이해 중에는 최고 부호화 시점이 단어 시작 이후로 이동했으며, STG의 음성 임베딩(빨간색)이 IFG의 언어 부호화(파란색)보다 훨씬 먼저 최고조에 달했습니다.종합적으로, 저희 연구 결과는 음성-텍스트 변환 모델 임베딩이 자연스러운 대화 중 언어 처리의 신경 기반을 이해하기 위한 일관된 프레임워크를 제공함을 시사합니다. 놀랍게도, Whisper는 뇌가 언어를 처리하는 방식을 고려하지 않고 오직 음성 인식을 위해서만 개발되었음에도 불구하고, 저희는 그 내부 표현이 자연스러운 대화 중 신경 활동과 정렬된다는 것을 발견했습니다. 이러한 정렬은 보장된 것이 아니었습니다. 만약 부정적인 결과가 나왔다면 임베딩과 신경 신호 간의 상관관계가 거의 없거나 전혀 없음을 보여주었을 것이며, 이는 모델의 표현이 뇌의 언어 처리 메커니즘을 포착하지 못했음을 의미했을 것입니다.LLM과 인간 뇌 간의 정렬을 통해 밝혀진 특히 흥미로운 개념 중 하나는 신경 처리에서의 '부드러운 계층 구조(soft hierarchy)'라는 개념입니다. IFG와 같이 언어에 관여하는 뇌 영역은 단어 수준의 의미론적 및 통사론적 정보를 우선시하는 경향이 있지만(언어 임베딩(파란색)과의 더 강한 정렬로 나타남), 더 낮은 수준의 청각적 특징도 포착합니다(음성 임베딩(빨간색)과의 낮지만 유의미한 정렬에서 분명히 드러남). 반대로, STG와 같은 하위 음성 영역은 음향 및 음소 처리를 우선시하는 경향이 있지만(음성 임베딩(빨간색)과의 더 강한 정렬로 나타남), 단어 수준 정보도 포착합니다(언어 임베딩(파란색)과의 낮지만 유의미한 정렬에서 분명히 드러남).LLM과 인간 뇌가 공유하는 목표 및 기하학적 구조LLM은 간단한 목표, 즉 순서대로 다음 단어를 예측하는 것을 사용하여 자연어를 처리하도록 훈련됩니다. 네이처 뉴로사이언스(Nature Neuroscience)에 발표된 논문에서, 저희는 LLM과 유사하게 청자의 뇌 언어 영역이 다음 단어가 발화되기 전에 예측하려고 시도한다는 것을 발견했습니다. 더욱이, LLM처럼, 단어 시작 전 청자의 예측에 대한 확신 수준은 단어가 발화된 후 그들의 놀람 수준(예측 오류)을 조절합니다. 이러한 발견은 자기회귀 LLM과 인간 뇌가 공유하는 시작 전 예측, 시작 후 놀람, 그리고 임베딩 기반 문맥 표현이라는 근본적인 계산 원리에 대한 강력한 새로운 증거를 제공합니다. 네이처 커뮤니케이션즈(Nature Communications)에 발표된 또 다른 논문에서, 저희 팀은 LLM의 임베딩 공간 기하학적 구조에 포착된 자연어 단어 간의 관계가 언어 영역에서 뇌에 의해 유도된 표현의 기하학적 구조(즉, 뇌 임베딩)와 정렬된다는 것도 발견했습니다.LLM과 인간 뇌의 자연어 처리 방식 차이점인간의 뇌와 트랜스포머 기반 LLM이 자연어 처리에서 근본적인 계산 원리를 공유하지만, 그 기저의 신경 회로 구조는 현저하게 다릅니다. 예를 들어, 후속 연구에서 저희는 트랜스포머 기반 LLM의 계층 간 정보 처리 방식과 인간 뇌의 처리 방식을 비교 조사했습니다. 저희 팀은 LLM과 인간 뇌의 언어 영역에서 계층 간 비선형 변환은 유사하지만, 그 구현 방식은 상당히 다르다는 것을 발견했습니다. 수백에서 수천 개의 단어를 동시에 처리하는 트랜스포머 아키텍처와 달리, 언어 영역은 언어를 순차적으로, 단어별로, 순환적으로, 그리고 시간적으로 분석하는 것으로 보입니다.요약 및 향후 방향저희 팀 연구에서 축적된 증거는 인간의 뇌와 딥러닝 모델이 자연어를 처리하는 방식 사이에 몇 가지 공유된 계산 원리를 밝혀냈습니다. 이러한 결과는 딥러닝 모델이 통계적 학습, 블라인드 최적화(blind optimization), 그리고 자연 현상과의 직접적인 부합 원칙에 기반하여 자연어를 처리하는 뇌의 신경 코드를 이해하기 위한 새로운 계산 프레임워크를 제공할 수 있음을 시사합니다. 동시에, 신경 구조, 언어 데이터의 유형 및 규모, 트랜스포머 기반 언어 모델의 훈련 프로토콜과, 인간의 뇌가 사회적 환경에서 자연스럽게 언어를 습득하는 생물학적 구조 및 발달 단계 사이에는 상당한 차이가 있습니다. 앞으로 저희의 목표는 정보 처리 및 실제 세계에서의 기능 수행 능력이 향상된, 생물학적으로 영감을 받은 혁신적인 인공 신경망을 만드는 것입니다. 저희는 인간의 경험과 더 잘 맞는 신경 구조, 학습 프로토콜, 훈련 데이터를 적용하여 이를 달성할 계획입니다.감사의 말씀본문에 기술된 작업은 구글 리서치가 프린스턴 대학교 신경과학 연구소 및 심리학과 해슨 랩(Hasson Lab), 히브리 대학교 경영대학원 및 인지과학과 딥코그니션랩(DeepCognitionLab), 그리고 뉴욕대 랑곤 종합 간질 센터(NYU Langone Comprehensive Epilepsy Center) 연구원들과 장기간 협력한 결과입니다.- 앤트로픽과 구글, LLM은 인간의 뇌와 거의 동일하게 작동한다앤스로픽과 딥마인드가 현재의 LLM이 추론 및 언어 능력 측면에서 인간의 뇌와 거의 동일하게 작동한다는 것을 보여주는 유사한 논문들을 발표했습니다.이는 "과연 실제로 추론하는 것인가"에 대한 기존의 논쟁 구도를 바꿔 놓을 것입니다.(앤트로픽) 거대 언어 모델의 사고 과정 추적하기 - 번역본 보기(구글) LLM 표현을 통해 인간 뇌의 언어 처리 과정 이해하기 - 번역본 보기
작성자 : 초존도초고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.