갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
영어 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
0/0
타 갤러리 영어 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- 보배 난리난) 포항 택시기사 폭행사건, 아들이 올린.jpg ㅇㅇ
- 오세훈, 현대차에 강공 "협상 거부땐 105층 지어야".jpg ㅇㅇ
- 민희진 기자회견 코스프레 해봤다. 레나천사
- 日오사카대 교수, 여성 치마 속 도촬하다 체포... 모두가 놀란 이유는? 난징대파티
- 인텔 이슈에 대한 옥동자의 발언(스압) 컴갤러
- 싱글벙글 네이버 댓글부대 ㅇㅇ
- 월 2000버는 서울대-서울대 로스쿨 변호사가 이혼한 이유.jpg 주갤러
- 국내 기술로 개발한 최첨단 MRI, 치매 감별 앞당길까.jpg ㅇㅇ
- 캡틴 김상호 “지금 여군은 부하들에게 짐이 된다” 육갤러
- [단독] 수백억 '브릿지론 사기', 농협 직원이라 믿어.jpg ㅇㅇ
- 문재인 개쫄았네.. ㅋㅋㅋㅋㅋ ㅇㅇ
- 어떻게 아파트 이름이 무한리필갈비? 정치마갤용계정
- ㅋㅋㅋ 일본도 CEO들 생각은 다 똑같노 ㅋㅋㅋㅋㅋㅋㅋ 이즈리얼ε
- 힙합은 안 멋지다고 말한 이유 힙갤러
- AV배우씹덕 최근 덕질한 굿즈 인증 ㅇㅇ
싱글벙글 스타쉽 착륙순간.webp
슬슬 대기권에 재진입하며 불타기 시작 그러던 중, 마찰열을 이기지 못한 날개가 불타기 시작한다. 사실 폭발하지 않고 발사를 성공한 것만으로도 만족했던 직원들은 즐겜모드로 관람한다. 이대로 날개는 고장났구나 싶었지만 분명 불탔는데도 날개가 정상 작동하더니 스타쉽 기체를 의도한대로 세우기 시작 기어코 세운 상태로 성공적으로 인도양에 착수 성공 착륙 성공까지는 기대 안했던 터라 착륙지를 준비해두진 않아서 물 위에 착수함. 만약 그자리에 착륙 플랫폼이 있었다면 진짜 착륙 성공했을 것 야 기분좋다! 이러고 몇개월 뒤에 또 발사예정 ㅋㅋ + 덤으로 분리된 1단 로켓 착륙 성공장면 이새끼 그냥 미친새끼면 개추 ㅋㅋㅋ - 싱글벙글 좀전에 성공한 스페이스x 스타십 발사 테스트 성공발사후 1단 부스터인 슈퍼헤비 부스터가 이전 3차 테스트때는 엔진 재점화 실패하고 음속으로 바다에 꼬라박혔었는데 이번 4차 테스트때는 무사히 역추진 성공하며 바다에 천천히 착륙 성공 그리고 2단부인 윗부분 우주선부분은 우주 궤도까지 정상적으로 올라간뒤 대기권 재진입 테스트 과정에서 날개가 움직이는 부분에 부족한 내열타일로 인해 날개 결합부가 녹아내리기 시작 대기 진입중에 엄청난 고열의 플라즈마로 인해 날개가 거의 걸레짝이 될정도로 날아감. 스타십의 날개가 하는 역할은 대기상태에서의 자세 제어를 맡는 중요한 역할. 그래서 저렇게 날개가 녹아내리다가 선체가 통째로 폭발하거나 아니면 날개기능 상실로 자세제어에 실패한다던지 할걸로 예상했는데 걸레짝이 된 날개가 정상적으로 움직이면서 자세제어에 성공하고 무사히 바다위에서 스타쉽 몸통을 세워서 역추진으로 천천히 바다에 착륙하는데 성공시킴 3차 테스트때의 부스터 착륙 실패, 스타쉽 대기권 재진입중 폭발 했던거랑 다르게 4차 테스트때는 둘다 바다에 착륙을 성공함 일론머스크 싱글벙글
작성자 : ㅇㅇ고정닉
레오폴드 SITUATIONAL AWARENESS 요약
전문 읽어보니 흥미로운 내용이 많은대 특갤에 대충 번역기 돌린것만 돌아다녀서 내용 압축 요약해봄출시 당시 얀르쿤을 포함한 AI 업계인들에게 충격을 준 GPT-2의 성능문장에서 it이 무엇을 뜻하는지 이해하는 수준이었다 지금으로썬 하찮지만그마저 성공한 몇 케이스만 나열한 수준이 저정도였다 그리고 GPT-4는 오류가 있을지언정 미적분과 코딩을 건드리는 수준이 되었다GPT-2와 비교가 실례일 정도의 격차다 마치 유아와 고딩 수준의 격차다그리고 이 부분이 이 글의 핵심이다1. GPT-2와 GPT-4의 격차는 유아와 고등학생 차이2. 그렇다면 둘 만큼의 격차를 한번더 벌리면 AGI가 나올수 있다!그렇다면 GPT-2와 GPT-4의 격차는 대충 얼마만큼 인걸까?일단 학습에 사용된 컴퓨팅 양을 비교하면 대략 3000~10000배 정도 차이가 있다고 한다그럼 AGI는 컴퓨팅 파워를 대충 10000배 늘리면 가능 할까?여기서 눈물나는 소식이다 컴퓨팅 파워의 상승은 느려지고 있다처음엔 단순히 주변에 널려있는 칩을 끌어다가 서버로 만들고 한계에 봉착하자지금은 GPU 성능 올리겠다고 BF8로 정확도 내리고 트렌스포머 전용 칩설계 하고가지각색의 화려한 칩설계 똥꼬쇼로 비약적 성능 향상을 이루워 냈지만점점 최적화로 인한 성능 향상에 한계가 오고있다물론 매년 칩 성능은 향상되지만 과거 수년 만큼의 향상을 기대하기 어려워지고 있다는뜻이다 그렇다면 싹다 노동시켜야 하는걸까? 얀르쿤은 신인걸까?위 첨부 사진은 세가지 이미지 처리 모델들의 같은 성능대비 컴퓨팅 비용을 보여준다놀랍게도 10년동안 꾸준히 컴퓨팅 효율이 2년 마다 100배 가까이 늘었다!즉 단순 하드웨어 성능이 아닌 알고리즘의 향상으로 인한 실질적 컴퓨팅 (Effective computing)은계속해서 늘어나고 있다하지만 방금 자료는 이미지 구분 AI지 우리가 관심있는 LLM이 아니다그리고 현재 LLM 훈련의 세부사항은 기밀이기 때문에 우리는 알수없다대신 간접적인 예측은 할수있다위 표는 MATH 벤치마크에서 50% 성능을 내기위해 필요한 추론비용이다이 부분에서도 대략 2년마다 100배 이상 싸지는걸 볼수있다물론 이걸 훈련비용과 연관짓는건 비약이라고 할수있겠지만내부자가 아닌 특붕이들은 이걸로 만족하자컴퓨팅 파워 향상 + 알고리즘 향상을 겹쳐보면둘의 완벽한 상호보완 을 볼수있다 이정도면 충분한걸까?아쉽게도 그렇지만은 않다 GPT-4 또한 알고리즘 향상의 수혜를 입었으니GPT-2 와 GPT-4 의 격차가 최대 100만배 로 뛰어버렸다...다만 이건 너무 비관적으로 본거고 본문에선 대충 중간값인 10만배 차이로 가정한다그러나 여기서 우리의 마지막 희망이 등장하니본문에선 Unhobbling 이라고 표현했는데대충 우리에게 익숙한RLHF, 프롬프트(Chain of Thought 등), Context length, 그리고 요즘 최고 떡밥인 Agent 등을 통칭하는거다이미 닳고 닳은 특붕이들은 이게 뭐 싶을지도 모르나 이게 생각보다 훨씬 중요하다는게 저자의 입장이다RLHF (대충 인간이 내린 체점으로 학습시키기) 가 없었으면 chatgpt는 존재할수없었고단순 벤치마크만 봐도 Chain of Thought 프롬프트로 10배의 성능향상 = 10배 실질적 컴퓨팅 향상 을 보여줬고Context length의 중요성은 특붕이라면 잘알태고Agent 이 새끼는 사실상 GPT-5 떡밥의 절반 이상이다이 부분은 컴퓨팅 파워 향상과 알고리즘 향상에 비해 불연속적이고 예측이 어렵다따라서 예측또한 매우 불확실하다 당장 내일 이걸로 인공지능 성능이 미쳐날뛸수도 있고특붕이들 말라죽일때까지 특레발만 떨수도 있다 하지만 확실한건 이것으로 인한 성능 향상은 필연적이고 불가피하다는것이다이 모든 요소를 종합한 예측치 즉 GPT-4로 부터 10만배의 실질적 컴퓨팅을 쏟아부은AI가 탄생하는 시점이 2027년일 확률이 매우 높아 보인다는게 이 글의 핵심이다다른거 다 볼 필요없고 "규모"에만 집중해서 GPT-2와 GPT-4의 "규모" 즉 10만배의 (5OOMs)을 내는 시기가 2027년 이라는 것이다!그리고 사실 This decade 즉 늦어도 2030년 즈음 까지 AGI가 오지 않으면AGI 꿈은 당분간 혹은 오랫도록 날아갈 (bust) 거라는게 저자의 예측이다왜냐하면 미친듯이 늘어나는 투자비용의 한계하드웨어 향상의 한계 그리고 알고리즘의 한계를 가만하면지수적인 실질적 컴퓨팅의 상승도 거기까지가 한계이기 때문다르게 말하자면 GPT-4와 AGI가 실질적 컴퓨팅 10만배 차이 이상이면특붕이들의 멸망인것이고 그 이하면 늦어도 6년안에 AGI님이 오시는거다요약1. GPT-2와 GPT-4의 "실질적 컴퓨팅" 차이는 대략 10만배2. 여려요소를 종합해보면 2027년에 GPT-4의 10만배 "실질적 컴퓨팅" 때려박은 AI 나옴3. 그게 AGI면 특붕이 성불 아니면 싹다 노동시켜https://situational-awareness.ai/from-gpt-4-to-agi/ I. From GPT-4 to AGI: Counting the OOMs - SITUATIONAL AWARENESS AGI by 2027 is strikingly plausible. GPT-2 to GPT-4 took us from ~preschooler to ~smart high-schooler abilities in 4 years. Tracing trendlines in compute (~0.5 orders of magnitude or OOMs/year), algorithmic efficiencies (~0.5 OOMs/year), and “unhobbling” gains (from chatbot to agent), we should expect another preschooler-to-high-schooler-sized qualitative jump by 2027. Look. The models, they justsituational-awareness.ai
작성자 : 다이아몬드핸드고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.