갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
프리파라 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
0/0
타 갤러리 프리파라 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- 카드깡으로 무려 55억 챙긴 20대 사기꾼 긴급체포..jpg 몽쉘통통
- 싱글벙글 여자가 형량이 높은 이유.jpg ㅇㅇ
- '하루 전화 100통' 해병대 장교의 스토킹 "잃을 게 없다" 해갤러
- 문체부, 축구협회 ....장미란이 직접 감사 ㅇㅇ
- 여성시대에서 군인 비하하는 한국 여자들 주갤러
- 인스타그램 게시물로 남편에게 이혼 통보한 두바이 공주.jpg ㅇㅇ
- [JTBC] '임성근 구명로비 의혹' 보도에…국민의힘 "제보공작" 정치마갤용계정
- 아무도 안써서 내가 쓰는 폐족 전반기 결산(1) 조지부스
- 와들와들 무속인이 된 딸을 받아들일 수 없는 모친.jpg BlackWolfStudi
- 노숙자였다가 한식 컵밥 체인점의 콜로라도 책임자로 승진한 남자 슈붕이
- 아사다 마오, 김연아의 벽에 고통스러웠다... 은퇴 8년만의 고백 난징대파티
- 몇시간전, 일본 사이타마현 가와구치시의 아파트에서 폭발사고 ㅇㅇ
- 외래종 라이언피쉬 잡아서 회 떠먹는 유튜버.jpg 감돌
- 30대의 유튜브 알고리즘 구경해 보는 초등학생.jpg 브페.8
- 장수생 친구.. 내가 잘못한걸까?.blind 야갤러
라이브 비디오를 실시간 스타일 변환하는 'Live2Diff' 등장
https://www.aitimes.com/news/articleView.html?idxno=161703 라이브 비디오를 실시간 스타일 변환하는 AI 도구 등장 라이브 비디오 스트림을 즉시 애니메이션으로 변환하는 인공지능(AI) 도구가 나왔다. 기존과는 다른 '단방향 어텐션 모델링(uni-directional attention modeling)' 방식으로 성능을 높였다는 설명이다. 벤처비트는 17일(현지시간) 상하이 AI연구실과 막스 플랑크 정보학연구소, 난양이공대학교 연구진이 라이브 비디오 스트림을 실시간으로 스타일 변환하는 AI 도구 ‘라이브2디프(Live2Diff)’ 논문을 아카이브에 게재했다고 전했다.라이브2디프는 라이브 비디오 스트림 처리를 위한 비디오 확산(diffusion) 모www.aitimes.com라이브 비디오 스트림을 즉시 애니메이션으로 변환하는 인공지능(AI) 도구가 나왔다. 기존과는 다른 '단방향 어텐션 모델링(uni-directional attention modeling)' 방식으로 성능을 높였다는 설명이다. 벤처비트는 17일(현지시간) 상하이 AI연구실과 막스 플랑크 정보학연구소, 난양이공대학교 연구진이 라이브 비디오 스트림을 실시간으로 스타일 변환하는 AI 도구 ‘라이브2디프(Live2Diff)’ 논문을 아카이브에 게재했다고 전했다.라이브2디프는 라이브 비디오 스트림 처리를 위한 비디오 확산(diffusion) 모델에 단방향 어텐션 모델링을 구현한 첫번째 사례로 소개됐다.일반적으로 비디오 확산 모델은 기반이 되는 트랜스포머 아키텍처의 기본 구성 요소인 어텐션 메카니즘의 양방향 특성 때문에 라이브 비디오 스트림에 대한 실시간 처리가 불가능하다. 일반적으로 문장 속 단어와 같은 순차 데이터를 학습해 맥락과 의미를 추적하는 트랜스포머 모델은 서로 떨어져 있는 데이터 요소들의 관계를 이해하는 데 어텐션 메커니즘을 사용한다.이런 트랜스포머의 어텐션 메커니즘을 라이브 비디오에 적용할 경우, 비디오 프레임 간의 관계를 이해하기 위해 과거 프레임과 미래 프레임 모두에 대해 시간적으로 양방향 처리가 필요하다. 특히 미래 프레임을 처리를 위해서는 지연이 불가피하다.이 문제를 해결하기 위해 라이브2디프는 각 프레임에 대해 미래 프레임 없이 과거 프레임과 몇 개의 초기 워밍업 프레임만 연관시켜 시간이 흘러도 일관성을 유지하는 단방향 어텐션 모델링을 도입했다.연구진은 "우리의 접근 방식은 미래 프레임 없이도 시간적 일관성과 자연스러움을 보장한다”라며 “이는 실시간 비디오 번역 및 처리를 위한 새로운 가능성을 열어준다"라고 설명했다.특히 이 기술은 엔비디아 '4090 GPU'와 같은 일반 소비자 하드웨어에서 초당 16프레임의 속도로 비디오를 실시간 온디바이스 처리하도록 최적화됐다.연구진은 실시간 웹캠 입력을 사용해 얼굴을 애니메이션 스타일 캐릭터로 변환하는 라이브2디프의 능력을 시연했다. 광범위한 실험 결과, 라이브2디프가 시간적 일관성과 자연스러움에서 기존 방법을 능가한다는 것을 양적 측정 및 사용자 연구에서 확인했다고 전했다.라이브2디프는 엔터테인먼트 산업에서 실시간 스트리밍과 가상 이벤트를 재정의할 수 있는 잠재력을 가지고 있다는 평이다.증강 현실(AR)과 가상 현실(VR) 분야에서 몰입형 경험을 향상할 수 있고, 실시간 스타일 전송을 통해 실시간 비디오 피드에서 현실 세계와 가상 환경 간의 간극을 줄일 수 있다. 또 게임이나 가상 투어, 건축 및 디자인과 같은 전문 분야에서도 응용될 수 있다.연구진은 라이브2디프의 전체 코드를 곧 오픈 소스로 공개할 계획이다.https://arxiv.org/html/2407.08701v1 Live2Diff: Live Stream Translation via Uni-directional Attention in Video Diffusion Models Live2Diff: Live Stream Translation via Uni-directional Attention in Video Diffusion Modelsarxiv.org
작성자 : ㅇㅇ고정닉
메이플 페미 개발진 기싸움 근황.jpg
메이플이야 도트그래픽 rpg에서 던파와 같이 오랜역사가 된 게임인데메이플이 한 8년전 즈음부터 개발진 물갈이되고추구하는 도트스타일이 확연히 바뀜과거 아이템들의 경우 비교적 색이 명확하고도트 특유의 테두리가 진했는데현재에 와서는 테두리가 명확하지않고파스텔톤 색상을 지향함여기에 도트변환툴 비중을 엄청 높여서도트 한땀한땀 클릭하던 때랑 비교해서퀄리티가 확실히 낮아짐마지막껀 헤어랑 얼굴피부랑 분간이 안갈정도 ㅋㅋ실제로 이게 한창 심할땐 테두리있는 코디템,원색계열 색상, 검정색 색상 이런템 1도 안나옴 ㅋㅋㅋ그러다가 8기 마스터라벨부터기존 흰색계열인 마스터라벨 헤어의검정버전을 추가하는데..밤의가발 이랍시고 '헤어'가 아닌 '모자' 로 내놓음.당연히 모자에 또 모자를 착용할수 없으니밤의가발을 착용하면 코디제한이 엄청 심해짐뚱카룽단 특유의 기싸움이 발휘된 것임''감히 우리가 만든 파스텔톤 헤어를 안써?그럼 검정색 줄테니까 대신 모자 쓰지마 ㅋㅋㅋ''이거였음 ㅋㅋㅋ 진짜 기싸움 레전드그러다가 이후 공정위 조사에서메이플스토리 확률조작 문제가 터지고리부트 너프 큐브삭제 외부인식 저하 등등각종 매출감소 요인으로메이플 매출,실적이 눈에 띄게 감소하여8기 마스터라벨 출시 8년이 지나고이번에 출시된 17기 마스터라벨 부터는뚱카룽단 기싸움 포기하고 마네킹(헤어를 저장해서 바꿔낄수 있는 아이템)매출이라도 좀더 땡길라고모자로주던거 포기하고 헤어로 주는거로 바뀜 ㅋㅋㅋ뚱카룽단 기싸움 레전드 레전드 레전드참고로 마네킹 아이템을 사용할수 있는 기본 헤어칸이 있고 그 헤어칸을 다 쓰면헤어룸 슬롯 확장권으로 헤어칸을 추가하고다시 또 마네킹을 사용해야 그 헤어칸에 헤어를 저장가능 ^^- dc official App
작성자 : 왕구리고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.