반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- #여름캠핑아이템 #캠핑준비물리스트 #캠핑쿨링템 #텐트추천 #여름캠핑장비 #캠핑기초장비 #에어매트추천 #전동쿨러리뷰 #방충랜턴 #휴대용샤워기 #타프쉘터추천 #여름그늘막 #캠핑체어추천 #멀티체어 #방수피크닉매트 #파워뱅크캠핑 #태양광충전기 #가족캠핑준비 #혼캠추천템 #차박필수품 #여름차박용품 #캠핑자충매트 #모기퇴치캠핑 #휴가용캠핑템 #캠핑체험가이드 #캠핑블로그추천 #캠핑유튜버템 #2025캠핑트렌드 #에코캠핑장비 #캠핑아이템비교표
- #2025호캉스추천 #봄호캉스가이드 #서울호캉스뷰맛집 #여의도벚꽃호텔 #잠실호캉스리뷰 #혼자호캉스추천 #봄여행호텔리스트 #호텔스파추천 #서울시내호캉스 #서울루프탑수영장 #호텔조식맛집 #도심속힐링장소 #펫프렌들리호텔 #커플호캉스코스 #디자인호텔서울 #호텔카푸치노리뷰 #글래드여의도벚꽃 #호캉스패키지추천 #조용한호텔추천 #벚꽃뷰객실예약팁 #서울럭셔리호텔 #주말호텔추천 #강남호캉스명소 #호텔스테이팁 #호텔어메니티추천 #디퓨저와호캉스 #스파와조식의조합 #봄시즌호
- #노후준비 #은퇴설계 #행복한노후 #은퇴자산관리 #국민연금 #개인연금 #퇴직연금 #실손보험 #장기요양보험 #시니어일자리 #주택연금 #공공임대주택 #고령자복지 #은퇴후계획 #노년기건강 #노년심리 #치매예방 #상속계획 #유언장작성 #은퇴체크리스트 #은퇴자소득 #노년기생활비 #은퇴연령 #노후파산예방 #재무설계 #시니어여행 #노년취미 #은퇴자전문가 #ai노후설계 #디지털노년
- #홈뷰티기기추천 #피부미용기기비교 #고주파미용기기 #led피부관리기 #초음파마사지기 #갈바닉클렌저 #블루라이트트러블기기 #홈스킨케어루틴 #기초케어기기 #rf리프팅효과 #미용기기리뷰 #피부타입별기기추천 #남성미용기기 #앰플흡수기기 #스마트홈뷰티기기 #피부관리기기2025 #뷰티디바이스추천 #퍼스널피부기기 #뷰티전문가의선택 #피부탄력기기 #피부미백기기 #홈스파기기 #이온토기기 #뷰티기기앱연동 #피부과대신홈케어 #피부진정기기 #여드름기기추천 #미용기기사용팁 #
- #광주근교여행추천 #전남여행지베스트 #담양죽녹원산책 #세량지사진스팟 #곡성기차마을장미 #불갑사산사여행 #무안갯벌체험 #보성녹차밭풍경 #나주읍성역사투어 #곡성플리마켓 #백양사봄풍경 #월출산기찬랜드 #5월광주여행 #광주근교데이트코스 #아이와함께가는곳 #부모님여행추천 #전남숨은명소 #광주차박명소 #광주드라이브코스 #감성카페투어 #전남산책길추천 #전남5월가볼만한곳 #광주주말나들이 #연둣빛풍경명소 #힐링여행전남 #광주자연명소 #도심근교여행지 #플리마켓감성여행 #
- #소형전기차추천 #2025전기차트렌드 #도심형전기차 #경차전기차비교 #전기차보조금정보 #캐스퍼ev리뷰 #르노조에후기 #차박가능ev #출퇴근전기차 #전기차충전팁 #전기차사용자후기 #소형ev가격비교 #ev보험료혜택 #전기차유지비 #소형차vs전기차 #2025전기차보조금 #친환경차구매팁 #전기차충전소찾기 #ev차량장점 #ev충전비용 #중고전기차정보 #스마트전기차추천 #전기차보험할인 #ev공유카트렌드 #전기차장거리주행 #차량전기화전망 #초보운전자ev #ai운전보
- #여자친구취향패션 #20대여성패션선호 #남자기본템추천 #오빠룩코디 #슬랙스코디법 #아이보리니트룩 #남자꾸안꾸패션 #미니멀룩남자 #데이트룩추천 #니트조끼코디 #봄남자코디 #여름남자룩 #블랙슬랙스활용법 #남친룩코디 #여자들이좋아하는남자옷 #무신사스탠다드추천 #크로스백남자룩 #스트라이프셔츠남자 #로우탑스니커즈코디 #니트가디건활용 #셔츠코디법 #봄남친룩 #간절기남자패션 #캔버스백스타일 #남자미니멀스타일링 #자라남자룩 #남자스타일기본템 #20대남자코디추천 #센스
- #여름원피스 #체형별원피스추천 #2025여름패션 #여자원피스코디 #체형보완스타일 #린넨원피스 #랩원피스추천 #미디원피스 #플러스사이즈패션 #키작녀원피스 #하이웨이스트드레스 #여름나들이코디 #바캉스패션 #여성여름룩 #a라인원피스 #셔츠형원피스 #머메이드원피스 #여름출근룩 #슬립드레스 #트렌디한원피스 #꾸안꾸룩 #여자휴가룩 #피부톤에맞는원피스 #쿨톤원피스 #여성복트렌드 #자신감코디 #체형별패션꿀팁 #여름패션리스트 #드레스스타일링 #2025원피스트렌드
- #10대생일선물 #2025생일트렌드 #센스있는선물 #학생선물추천 #친구생일선물 #이어폰케이스추천 #무드등선물 #틴뷰티추천 #디지털카메라 #감성드로잉 #기프티콘추천 #파티키트선물 #게임템선물 #10대심리에세이 #트렌디선물리스트 #고등학생생일선물 #중학생생일선물 #z세대취향 #알파세대선물 #브리츠무드등 #산리오굿즈 #문화생활기프티콘 #10대여자선물 #10대남자선물 #플렉스하지않아도센스있게 #미니케이크diy #감성선물포장 #청소년취향선물 #10대기념일선물 #
- #제주이색맛집 #제주로컬식당 #제주커리맛집 #제주오션뷰맛집 #성산맛집추천 #우도맛집리스트 #제주공백식당 #다채면옥후기 #제주브런치카페 #한라봉파스타 #한치맛집제주 #제주카페같은식당 #제주맛집투어 #제주로컬푸드 #표선오름식당 #한림시트러스카페 #제주감성식당 #전복물회맛집 #흑돼지이색요리 #제주식도락여행 #제주브런치추천 #제주바다보이는식당 #테왁식당우도 #제주스노잉크랩 #제주레스토랑추천 #2025제주여행맛집 #제주맛집지도 #제주데이트맛집 #혼자여행제주맛집
- #대구근교여행추천 #대구당일치기코스 #5월가볼만한곳 #팔공산갓바위 #경주황리단길 #청도운문사계곡 #성주성밖숲산책 #문경새재도보여행 #구미금오산케이블카 #고령대가야체험 #대구당일여행코스 #도동서원자전거길 #영천별빛테마파크 #대구가족여행지 #대구데이트코스추천 #대구근교산책코스 #대구자연명소 #대구드라이브코스 #대구봄여행지 #대구근처사진스팟 #대구당일코스정리 #대구주말나들이 #경북당일치기 #대구계곡추천 #대구역근처여행 #5월소풍코스 #전통문화체험지 #대구근교
- #자외선차단제추천 #2025자차리스트 #여름자외선관리 #자외선차단제비교 #피부타입별자차 #자차순위 #spf추천 #무기자차 #유기자차 #민감성자차 #건성자차 #지성자차 #자차실사용리뷰 #여름자차필수템 #자외선차단꿀팁 #피부과전문의추천 #자차백탁없음 #자차성분분석 #자외선차단제효과 #자차순서 #선크림추천 #데일리자차 #선크림사용법 #자외선지수 #spf50추천 #pa4플러스 #자차리뷰모음 #2025여름뷰티 #선케어제품비교 #여름피부관리
- 인공지능논문 #파인튜닝논문 #rag논문 #최신ai논문 #꼭읽어야하는논문
- #서울공연추천 #2025공연일정 #콜드플레이내한 #데스노트뮤지컬 #서울재즈페스티벌2025 #임윤찬콘서트 #서울시향 #아이유콘서트2025 #뮤지컬추천 #콘서트정보 #공연예매팁 #서울문화생활 #서울5월공연 #내한공연 #클래식추천 #뮤지컬매니아 #kpop콘서트 #힐링문화생활 #공연티켓 #5월공연일정 #서울데이트코스 #공연굿즈 #야외공연 #서울주말공연 #문화예술 #공연추천블로그 #인터파크공연 #콘서트정보공유 #서울예술일정 #서울볼거리공연
- #해루질 #5월여행지추천 #가족체험여행 #자연체험 #해루질장소 #갯벌체험 #갯벌여행 #물때표 #야간해루질 #강화도해루질 #서천여행 #고창가볼만한곳 #포항여행 #태안해루질 #보성여행 #남해바다 #경남해루질 #해삼잡기 #소라잡기 #바지락체험 #초보해루질 #해루질장비 #여름체험 #해루질성공팁 #야경명소 #바닷가데이트 #국내캠핑명소 #국내자연여행 #가족힐링 #2025여행지
- #이적축제 #장기하축제 #10cm축제 #카더가든축제 #실리카겔축제 #이승윤축제 #나상현씨밴드축제 #스텔라장축제 #소수빈축제 #정세운축제 #윤마치축제 #리도어축제 #연세대축제 #무악대동제2025 #scentofblue #연세대대동제 #연세대학교행사 #노천극장공연 #연세블루런 #연세공연 #연세굿즈 #대학생축제 #서울축제추천 #5월축제 #연세대학교140주년 #연세아티스트공연 #10cm연세 #연세카더가든 #이적공연 #장기하연세대 #스탠딩존입장 #연세푸드부스 #
- #부산근교여행추천 #5월부산여행지 #통도사산책코스 #봉하마을나들이 #오랑대공원일출 #울산장생포고래박물관 #위양지사진명소 #우포늪산책길 #가덕도트레킹 #맹종죽테마공원 #부산근교카페거리 #감성카페드라이브 #태종대유람선 #부산당일치기여행 #봄바다드라이브 #힐링여행지추천 #가족여행코스 #연인산책코스 #부산봄꽃여행 #부산도보여행 #자연과함께하는여행 #생태체험여행 #근교산책명소 #부산근교가볼만한곳 #부산외곽소도시 #봄사진스팟추천 #조용한여행지 #소도시감성여행 #산
- #2025베스트셀러 #여름휴가도서추천 #북캉스추천도서 #자기계발추천 #감성에세이 #김미경마흔수업 #유발하라리신간 #트렌드코리아2025 #하태완에세이 #손원평아몬드 #여름독서리스트 #교보문고베스트 #yes24도서추천 #알라딘인기책 #심리치유도서 #ai시대독서 #슬로우리딩 #미래학도서 #철학추천도서 #소설추천도서 #북리스트2025 #휴가지추천책 #도서구매가이드 #북에디터추천 #책읽는ai #에세이추천 #마케터필독서 #여성자기계발서 #감정치유도서 #책추천블로그
- 게임리뷰 #크로스월드제로포인트 #오픈월드rpg #게임공략 #게임초보가이드 #신작게임2025 #aaa게임추천 #ai게임추천 #npc인공지능 #게임그래픽현실화 #게임기후시스템 #스팀신작 #플스5게임추천 #게임드론활용 #게임탐색팁 #게임장비튜닝 #게임스토리분기 #멀티엔딩게임 #게임리얼리즘 #크로스월드팁 #게임경제시스템 #게임호감도 #rpg공략집 #게임시작가이드 #신작rpg비교 #게임전문가의견 #게임faq #게임오해와진실 #게임ai적용 #게임추천대상
- #2025가족여행 #5월국내여행추천 #아이와함께 #국내가족여행지 #경주여행추천 #여수여행코스 #평창자연여행 #담양가볼만한곳 #제주도가족여행 #국내힐링여행 #가정의달여행 #5월여행지추천 #국내아이와여행 #전통문화체험 #목장체험 #해양체험여행 #계절별여행지 #초등학생여행지 #노인동반여행지 #3세대여행 #봄가족여행 #국내드라이브코스 #국내여행리스트 #제주렌터카여행 #자연친화여행지 #역사체험여행 #수도권근교여행 #2025여행트렌드 #국내테마여행 #전통과자연
- #서울근교데이트 #주말데이트 #자연속데이트 #힐링데이트코스 #가평아침고요수목원 #세미원연꽃정원 #남양주물의정원 #두물머리산책 #파주벽초지수목원 #헤이리예술마을 #왕송호수데이트 #플로팅카페추천 #레일바이크데이트 #커플사진명소 #서울근교여행지 #데이트명소추천 #계절별데이트코스 #서울근교산책코스 #가을데이트 #봄데이트 #겨울데이트명소 #커플피크닉 #도심탈출코스 #연인여행추천 #서울근교드라이브 #한강뷰데이트 #서울주말코스 #야간데이트명소 #sns사진맛집 #커플
- #가족나들이추천 #5월가족여행지 #지역별나들이장소 #아이와가볼만한곳 #수도권가족나들이 #강원도여행지추천 #충청도힐링여행 #전라도아이와여행 #경상도가족나들이 #제주도아이체험 #5월꽃명소 #주말나들이코스 #가족나들이체험 #자연학습장소 #수목원추천 #도심속공원 #생태체험학습장 #한옥체험마을 #농촌체험여행 #휴양림추천 #케이블카여행지 #레일바이크체험 #워터파크가족여행 #아이들과캠핑 #전통문화체험 #동물농장체험 #야시장가족코스 #인생사진명소 #5월꽃축제 #가족힐
- #2025여름패션 #3040여성패션 #여름린넨팬츠 #시어서커셋업 #하이웨이스트스커트 #투명스트랩샌들 #여름룩추천 #30대여름패션 #40대여름스타일 #린넨출근룩 #팬톤컬러2025 #레몬컬러포인트 #크롭블라우스 #롱스커트코디 #직장인여름룩 #쿨톤여름패션 #누드톤코디 #여름패션쇼핑몰 #여름트렌드 #린넨슬랙스 #여름원단추천 #pvc샌들 #하객룩추천 #여름패션필수템 #여름패션스타일링 #3040패션리스트 #린넨재질차이 #여름옷소재 #스타일체크리스트 #여성오피스룩
- #헬스케어기기추천 #2025건강관리기기 #스마트헬스디바이스 #심전도측정기 #스마트링활용법 #ai체중계추천 #피부진단기기 #스트레스측정기 #수면질개선기기 #건강데이터분석 #개인맞춤헬스케어 #ai건강관리 #웨어러블헬스케어 #스마트헬스앱 #뇌파스트레스기기 #건강기록디바이스 #지속가능한헬스케어 #헬스루틴기기 #가정용의료기기 #피트니스기기비교 #중장년헬스기기 #체성분분석체중계 #ai스킨케어기기 #명상보조기기 #스마트헬스리포트 #심박측정링 #디지털건강관리 #헬스케
- #2025만화추천 #인기만화책 #만화책리스트 #ai주제만화 #힐링만화 #가상현실만화 #sf만화추천 #힐링툰 #고전문학만화 #심리만화 #드라마만화 #2025상반기도서 #독서추천만화 #소장가치만화 #책추천10선 #일상툰추천 #판타지만화책 #로맨스만화 #가족과함께볼만화 #명작만화 #10대만화추천 #30대만화리스트 #디스토피아만화 #ai이야기 #불안극복툰 #프리랜서툰 #창작툰추천 #드래곤판타지 #철학만화 #만화작화좋은작품
- #2025여름신발 #여름필수템 #여름스니커즈추천 #여름샌들추천 #여름신발비교 #나이키코코 #버켄스탁eva #뉴발란스530 #온러닝클라우드5 #샤카네오번지 #편안한샌들 #가벼운운동화 #여행신발추천 #트레킹샌들 #통기성좋은신발 #방수신발추천 #슬립온추천 #캠핑신발 #스니커즈코디 #여름패션아이템 #여름신발고르는법 #발건강신발 #여름맞이준비물 #젊은층신발추천 #무게가벼운신발 #eva샌들 #기능성운동화 #신발큐레이션 #여름트렌드패션 #ai패션추천
- #2025재테크 #넥스트재테크 #ai자산관리 #로보어드바이저 #소수점투자 #조각투자 #미술품투자 #탄소배출권투자 #파킹예금 #단기금융상품 #금융앱추천 #투자자동화 #가상자산분산투자 #고금리cma #저축자동화 #투자입문자추천 #esg투자전략 #디지털금융트렌드 #마이데이터활용 #가계부ai분석 #카카오페이로보 #테사조각투자 #토스뱅크자동투자 #머니무브전략 #etf분산투자 #맞춤형투자전략 #지출관리앱추천 #자산관리로봇 #2025투자전망 #현금흐름관리팁
- #지민콘서트 #bts지민콘서트 #jiminsolouniverse콘서트 #한화클래식콘서트 #파트리샤프티봉콘서트 #blackpink콘서트 #블랙핑크콘서트 #smtownlive콘서트 #sm엔터테인먼트콘서트 #슈퍼주니어콘서트 #소녀시대콘서트 #에스파콘서트 #샤이니콘서트 #exo콘서트 #nell콘서트 #넬공연 #서울공연 #2025공연 #6월콘서트 #서울콘서트추천 #콘서트예매 #서울가수공연 #케이팝공연 #클래식공연추천 #sm아티스트 #라이브서울 #서울문화공연 #뮤
- #고려대2025 #고려대축제라인업 #석탑대동제 #고려대학교축제 #대학축제 #서울대학축제 #고대축제꿀팁 #고려대부스 #고려대주점 #고려대공연 #고려대먹거리 #스탬프이벤트 #유니페스 #푸드트럭축제 #대학생축제추천 #서울5월축제 #ai체험부스 #갤럭시ai클래스 #고대포토프레임 #포토에이스 #축제아이템추천 #생중계공연 #고대중앙광장 #축제꿀템 #휴대용선풍기추천 #축제보조배터리 #축제qr인증 #굿즈이벤트 #대학생필수템 #서울대학문화 #고대굿즈
- #2025캠핑추천 #캠핑그늘막비교 #차박텐트추천 #suv차박장비 #루프탑텐트설치 #캠핑타프베스트 #모빌하우스쉘터리뷰 #코베아헥사타프 #감성쉘터아이템 #여름캠핑그늘막 #차박초보장비 #차박텐트설치법 #혼캠그늘막추천 #차박그늘막세트 #2025캠핑트렌드 #캠프밸리리빙텐트 #차량전용쉘터 #원터치그늘막추천 #자동차캠핑용품 #차박필수템 #차박쉘터비교 #차박가성비텐트 #그늘막차단율 #루프탑텐트주의사항 #차량별텐트호환 #야외쉘터선택법 #도심근교캠핑장 #uv차단쉘터 #트
Archives
- Today
- Total
사람과 AI
최신 인공지능 연구 트렌드: 2025.04.13(일) 본문
반응형
📄
category : [fine tuning] SOFIA/upGREAT imaging spectroscopy of the [C II] 158 um fine structure line toward the Sgr A region in the Galactic center 타이틀: [SOFIA/upGREAT 고해상 스펙트로그램의 [C II] 158 μm 라인 측정 및 Sgr A 근처 galactic center에서] 소설[SOFIA/upGREAT 대형 항성 시스템을 통해 galactic center 주변에 존재하는 [C II] 158 μm 라인의 고해상 스펙트로그램을 측정하여 분석한 연구입니다. Sgr A는 galactic center에서 관측가능한 가장 가까운 대형 항성 시스템으로, 매우 중요한 astrophysical 연구의 주요 지역입니다. 이 연구에서는 high-resolution spectroscopy를 사용하여 Sgr A 근처에 존재하는 [C II] 158 μm 라인의 특징을 살펴보고, galactic center의 맥주름이나 빈부조화 등의 astrophysical 현상을 이해하는데 기여할 수 있는 새로운 정보를 제공하고자 합니다. 발행인: A. I. Harris, R. Güsten, M. A. Requena-Torres, D. Riquelme, M. R. Morris, G. J. Stacey, J. Stutzki, Y. Okada, E. Chambers, M. Mertens, C. Fischer 발행일: 2025-04-08 00:00:00 We present SOFIA/upGREAT velocity-resolved spectral imaging and analysis of the 158 um [C II] spectral line toward the central 80 by 43\,pc region of the Central Molecular Zone of the Galaxy. The field we imaged with 14" (0.6 pc) spatial and 1 km/s spectral resolution contains the Circum-Nuclear Disk (CND) around the central black hole Sgr A*, the neighboring thermal Arched Filaments, the nonthermal filaments of the Radio Arc, and the three luminous central star clusters. [C II] traces emission from the CND's inner edge to material orbiting at a distance of approximately 6 pc. Its velocity field reveals no sign of inflowing material nor interaction with winds from the Sgr A East supernova remnant. Wide-field imaging of the Sgr A region shows multiple circular segments, including the thermal Arched Filaments, that are centered on a region that includes the Quintuplet cluster. We examine the possibility that the Arched Filaments and other large-scale arcs trace transient excitation events from supernova blast waves. Along the Arched Filaments, comparisons among far-IR fine structure lines show changes in ionization state over small scales and that high-excitation lines are systematically shifted in position from the other lines. These also point to transient fast winds that shocked on the surface of the Arches cloud to produce additional local UV radiation to excite the Arched Filaments on a cloud surface illuminated by UV from hot stars. 논문 다운로드 |
📄
category : [fine tuning] Electronic Structure Guided Inverse Design Using Generative Models 전자 구조 기반 생성 모델을 이용한 반응물 설계를 위한 역설계 방법 발행인: Shuyi Jia, Panchapakesan Ganesh, Victor Fung 발행일: 2025-04-08 00:00:00 The electronic structure of a material fundamentally determines its underlying physical, and by extension, its functional properties. Consequently, the ability to identify or generate materials with desired electronic properties would enable the design of tailored functional materials. Traditional approaches relying on human intuition or exhaustive computational screening of known materials remain inefficient and resource-prohibitive for this task. Here, we introduce DOSMatGen, the first instance of a machine learning method which generates crystal structures that match a given desired electronic density of states. DOSMatGen is an E(3)-equivariant joint diffusion framework, and utilizes classifier-free guidance to accurately condition the generated materials on the density of states. Our experiments find this approach can successfully yield materials which are both stable and match closely with the desired density of states. Furthermore, this method is highly flexible and allows for finely controlled generation which can target specific templates or even individual sites within a material. This method enables a more physics-driven approach to designing new materials for applications including catalysts, photovoltaics, and superconductors. 논문 다운로드 |
📄
category : [fine tuning] Transfer between Modalities with MetaQueries 제목: 모델 간 기계번역을 위한 메타질문기반 텐서 전이 학습 답변: 메타질문기반 텐서 전이 학습은 다양한 매달린스 패러미터를 통해 단일 모델에 대한 여러 번의 학습 과정으로 이전된 능력을 갖는다. 이를 통해 비선형적이고 다양한 기계번역 문제에서 뛰어난 성능을 보여준다. 이러한 접근법은 특히 문장, 이미지, 음성 등 다양한 모달 간의 번역을 가능하게 한다. 발행인: Xichen Pan, Satya Narayan Shukla, Aashu Singh, Zhuokai Zhao, Shlok Kumar Mishra, Jialiang Wang, Zhiyang Xu, Jiuhai Chen, Kunpeng Li, Felix Juefei-Xu, Ji Hou, Saining Xie 발행일: 2025-04-08 00:00:00 Unified multimodal models aim to integrate understanding (text output) and generation (pixel output), but aligning these different modalities within a single architecture often demands complex training recipes and careful data balancing. We introduce MetaQueries, a set of learnable queries that act as an efficient interface between autoregressive multimodal LLMs (MLLMs) and diffusion models. MetaQueries connects the MLLM's latents to the diffusion decoder, enabling knowledge-augmented image generation by leveraging the MLLM's deep understanding and reasoning capabilities. Our method simplifies training, requiring only paired image-caption data and standard diffusion objectives. Notably, this transfer is effective even when the MLLM backbone remains frozen, thereby preserving its state-of-the-art multimodal understanding capabilities while achieving strong generative performance. Additionally, our method is flexible and can be easily instruction-tuned for advanced applications such as image editing and subject-driven generation. 논문 다운로드 |
📄
category : [fine tuning] Hogwild! Inference: Parallel LLM Generation via Concurrent Attention [Hogwild! 인ferences: 수평적 주목을 통한 동시 분산된 Large Language Model(Generation)] 이 제목은 대량 언어 모델의 생성에 대한 새로운 접근 방식, "Hogwild!"라는 이름의 연구를 다루고 있습니다. 이 기법은 여러 개의 처리 코루틴(Coroutine)이 서로 동시에 주목을 수행하는 방식으로 이루어집니다. 이러한 동시 작업을 통해 더 빠르고 효율적으로 대량 언어 모델의 생성이 가능해집니다. 발행인: Gleb Rodionov, Roman Garipov, Alina Shutova, George Yakushev, Vage Egiazarian, Anton Sinitsin, Denis Kuznedelev, Dan Alistarh 발행일: 2025-04-08 00:00:00 Large Language Models (LLMs) have demonstrated the ability to tackle increasingly complex tasks through advanced reasoning, long-form content generation, and tool use. Solving these tasks often involves long inference-time computations. In human problem solving, a common strategy to expedite work is collaboration: by dividing the problem into sub-tasks, exploring different strategies concurrently, etc. Recent research has shown that LLMs can also operate in parallel by implementing explicit cooperation frameworks, such as voting mechanisms or the explicit creation of independent sub-tasks that can be executed in parallel. However, each of these frameworks may not be suitable for all types of tasks, which can hinder their applicability. In this work, we propose a different design approach: we run LLM "workers" in parallel , allowing them to synchronize via a concurrently-updated attention cache and prompt these workers to decide how best to collaborate. Our approach allows the instances to come up with their own collaboration strategy for the problem at hand, all the while "seeing" each other's partial progress in the concurrent cache. We implement this approach via Hogwild! Inference: a parallel LLM inference engine where multiple instances of the same LLM run in parallel with the same attention cache, with "instant" access to each other's generated tokens. Hogwild! inference takes advantage of Rotary Position Embeddings (RoPE) to avoid recomputation while improving parallel hardware utilization. We find that modern reasoning-capable LLMs can perform inference with shared Key-Value cache out of the box, without additional fine-tuning. 논문 다운로드 |
📄
category : [fine tuning] GOLLuM: Gaussian Process Optimized LLMs -- Reframing LLM Finetuning through Bayesian Optimization [GOLLuM: Gaussian Process Optimized Language Model Reinvention via Bayesian Optimization] 발행인: Bojana Ranković, Philippe Schwaller 발행일: 2025-04-08 00:00:00 Large Language Models (LLMs) can encode complex relationships in their latent spaces, yet harnessing them for optimization under uncertainty remains challenging. We address this gap with a novel architecture that reframes LLM finetuning as Gaussian process (GP) marginal likelihood optimization via deep kernel methods. We introduce LLM-based deep kernels, jointly optimized with GPs to preserve the benefits of both - LLMs to provide a rich and flexible input space for Bayesian optimization and - GPs to model this space with predictive uncertainty for more efficient sampling. Applied to Buchwald-Hartwig reaction optimization, our method nearly doubles the discovery rate of high-performing reactions compared to static LLM embeddings (from 24% to 43% coverage of the top 5% reactions in just 50 optimization iterations). We also observe a 14% improvement over domain-specific representations without requiring specialized features. Extensive empirical evaluation across 19 benchmarks - ranging from general chemistry to reaction and molecular property optimization - demonstrates our method's robustness, generality, and consistent improvements across: (1) tasks, (2) LLM architectures (encoder, decoder, encoder-decoder), (3) pretraining domains (chemistry-related or general-purpose) and (4) hyperparameter settings (tuned once on a single dataset). Finally, we explain these improvements: joint LLM-GP optimization through marginal likelihood implicitly performs contrastive learning, aligning representations to produce (1) better-structured embedding spaces, (2) improved uncertainty calibration, and (3) more efficient sampling - without requiring any external loss. This work provides both practical advances in sample-efficient optimization and insights into what makes effective Bayesian optimization. 논문 다운로드 |
📄
category : [LLM] APIGen-MT: Agentic Pipeline for Multi-Turn Data Generation via Simulated Agent-Human Interplay 타이틀: APIGen-MT의 다방면 데이터 생성을 위한 인공 지능 기반 수순 시스템: 실제 환경에서 유추형 인간-기계 상호작용을 활용한 AGENTIC 플라이웨ay 번역: APIGen-MT의 다변화 데이터를 생성하기 위해 인공 지능 기반의 순서 시스템: 실제 환경에서 추측형 인간-기계 상호 작용을 통한 AGENTIC 플로우 입니다. 발행인: Akshara Prabhakar, Zuxin Liu, Ming Zhu, Jianguo Zhang, Tulika Awalgaonkar, Shiyu Wang, Zhiwei Liu, Haolin Chen, Thai Hoang, Juan Carlos Niebles, Shelby Heinecke, Weiran Yao, Huan Wang, Silvio Savarese, Caiming Xiong 발행일: 2025-04-04 00:00:00 Training effective AI agents for multi-turn interactions requires high-quality data that captures realistic human-agent dynamics, yet such data is scarce and expensive to collect manually. We introduce APIGen-MT, a two-phase framework that generates verifiable and diverse multi-turn agent data. In the first phase, our agentic pipeline produces detailed task blueprints with ground-truth actions, leveraging a committee of LLM reviewers and iterative feedback loops. These blueprints are then transformed into complete interaction trajectories through simulated human-agent interplay. We train a family of models -- the xLAM-2-fc-r series with sizes ranging from 1B to 70B parameters. Our models outperform frontier models such as GPT-4o and Claude 3.5 on $\tau$-bench and BFCL benchmarks, with the smaller models surpassing their larger counterparts, particularly in multi-turn settings, while maintaining superior consistency across multiple trials. Comprehensive experiments demonstrate that our verified blueprint-to-details approach yields high-quality training data, enabling the development of more reliable, efficient, and capable agents. We open-source both the synthetic data collected and the trained xLAM-2-fc-r models to advance research in AI agents. Models are available on HuggingFace at https://huggingface.co/collections/Salesforce/xlam-2-67ef5be12949d8dcdae354c4 and project website is https://apigen-mt.github.io 논문 다운로드 |
📄
category : [LLM] FEABench: Evaluating Language Models on Multiphysics Reasoning Ability [FEABench: 고무성능 언어모델의 다물리학적 추론 능력 평가를 위한 타이틀 연구] 발행인: Nayantara Mudur, Hao Cui, Subhashini Venugopalan, Paul Raccuglia, Michael P. Brenner, Peter Norgaard 발행일: 2025-04-08 00:00:00 Building precise simulations of the real world and invoking numerical solvers to answer quantitative problems is an essential requirement in engineering and science. We present FEABench, a benchmark to evaluate the ability of large language models (LLMs) and LLM agents to simulate and solve physics, mathematics and engineering problems using finite element analysis (FEA). We introduce a comprehensive evaluation scheme to investigate the ability of LLMs to solve these problems end-to-end by reasoning over natural language problem descriptions and operating COMSOL Multiphysics$^\circledR$, an FEA software, to compute the answers. We additionally design a language model agent equipped with the ability to interact with the software through its Application Programming Interface (API), examine its outputs and use tools to improve its solutions over multiple iterations. Our best performing strategy generates executable API calls 88% of the time. LLMs that can successfully interact with and operate FEA software to solve problems such as those in our benchmark would push the frontiers of automation in engineering. Acquiring this capability would augment LLMs' reasoning skills with the precision of numerical solvers and advance the development of autonomous systems that can tackle complex problems in the real world. The code is available at https://github.com/google/feabench 논문 다운로드 |
📄
category : [RAG] PathGPT: Leveraging Large Language Models for Personalized Route Generation 주제별 쓰여보기 - "대형 언어 모델을 활용한 개인화된 경로 생성" 대형 언어 모델(Large Language Models, LLMs)은 최근 자연어 처리와 대화 시스템 분야에서 혁신적인 성과를 기록하고 있습니다. 이 논문에서는 이러한 LLMs가 주관적이고 고유한 경로를 생성하는 데 어떻게 활용될 수 있는지에 대해 살펴보려 합니다. 경로 생성은 다양한 분야에서 중요한 역할을 합니다. 교통 흐름 관리, 지진 경보 시스템 등에서 이론적인 이해가 필요한 응용 분야는 물론, 개인화된 여행 예약 시스템, 자동 주차 시스템과 같은 실제 인프라에서도 뛰어난 결과를 보여줄 수 있습니다. 대형 언어 모델은 텍스트 데이터를 기반으로 학습하며, 이는 그들이 사람들의 대화 패턴을 이해하고 고객 맞춤형 서비스를 제공하는 데 사용될 수 있음을 의미합니다. 이러한 모델들은 자연스러운 대화를 생성하거나 주제별 정보를 추출하는 능력이 있어, 경로 선택에 대한 다양한 요구 사항을 충족시키는 방법을 배울 수 있습니다. 본 연구에서는 대형 언어 모델의 활용 가능성과 그것이 어떻게 개인화된 경로 생성에 도움이 될 수 있는지를 조명하겠습니다. 이를 통해 우리는 기술 발전이 인간 생활에 미치는 영향을 이해하고, 지능형 시스템을 개발하는 데 어떤 방향으로 나아가야 하는지에 대한 우리의 역할을 생각해볼 수 있을 것입니다. 발행인: Steeve Cuthbert Marcelyn, Yucen Gao, Yuzhe Zhang, Xiaofeng Gao, Guihai Chen 발행일: 2025-04-08 00:00:00 The proliferation of GPS enabled devices has led to the accumulation of a substantial corpus of historical trajectory data. By leveraging these data for training machine learning models,researchers have devised novel data-driven methodologies that address the personalized route recommendation (PRR) problem. In contrast to conventional algorithms such as Dijkstra shortest path algorithm,these novel algorithms possess the capacity to discern and learn patterns within the data,thereby facilitating the generation of more personalized paths. However,once these models have been trained,their application is constrained to the generation of routes that align with their training patterns. This limitation renders them less adaptable to novel scenarios and the deployment of multiple machine learning models might be necessary to address new possible scenarios,which can be costly as each model must be trained separately. Inspired by recent advances in the field of Large Language Models (LLMs),we leveraged their natural language understanding capabilities to develop a unified model to solve the PRR problem while being seamlessly adaptable to new scenarios without additional training. To accomplish this,we combined the extensive knowledge LLMs acquired during training with further access to external hand-crafted context information,similar to RAG (Retrieved Augmented Generation) systems,to enhance their ability to generate paths according to user-defined requirements. Extensive experiments on different datasets show a considerable uplift in LLM performance on the PRR problem. 논문 다운로드 |
📄
category : [RAG] Themes of Building LLM-based Applications for Production: A Practitioner's View 제목: 제작가的经验과 관점에서 본 언어 모델 기반 응용 프로그램의 주요 테마 이 연구에서는 언어 모델(LLM) 기반 응용 프로그램을 구축하는 데 필요한 주요 테마에 대해 신중하게 살펴보고, 제작가의 경험과 관점을 중심으로 접근하겠습니다. LLM은 최근 AI 분야에서 중요한 발전을 겪고 있으며, 이를 통해 다양한 산업 영역에 걸쳐 새로운 응용 프로그램이 탄생되고 있습니다. 이 연구는 제작 가들이 이러한 기술 변화를 반영하고 효과적으로 응용 프로그램을 구축하기 위한 전략과 실무적 지침들을 제공할 것입니다. 발행인: Alina Mailach, Sebastian Simon, Johannes Dorn, Norbert Siegmund 발행일: 2024-11-13 00:00:00 Background: Large language models (LLMs) have become a paramount interest of researchers and practitioners alike, yet a comprehensive overview of key considerations for those developing LLM-based systems is lacking. This study addresses this gap by collecting and mapping the topics practitioners discuss online, offering practical insights into where priorities lie in developing LLM-based applications. Method: We collected 189 videos from 2022 to 2024 from practitioners actively developing such systems and discussing various aspects they encounter during development and deployment of LLMs in production. We analyzed the transcripts using BERTopic, then manually sorted and merged the generated topics into themes, leading to a total of 20 topics in 8 themes. Results: The most prevalent topics fall within the theme Design & Architecture, with a strong focus on retrieval-augmented generation (RAG) systems. Other frequently discussed topics include model capabilities and enhancement techniques (e.g., fine-tuning, prompt engineering), infrastructure and tooling, and risks and ethical challenges. Implications: Our results highlight current discussions and challenges in deploying LLMs in production. This way, we provide a systematic overview of key aspects practitioners should be aware of when developing LLM-based applications. We further pale off topics of interest for academics where further research is needed. 논문 다운로드 |
📄
category : [RAG] On the Consistency of Multilingual Context Utilization in Retrieval-Augmented Generation 타이틀: 다국어 상황 활용의 일관성에 대해 집중적으로 살펴보고 신중히 답변해보자: Retrieval-가공식화 과정에서의 다언어 맥락 이용의 일관성에 관하여 [On the Consistency of Multilingual Context Utilization in Retrieval-Augmented Generation] 발행인: Jirui Qi, Raquel Fernández, Arianna Bisazza 발행일: 2025-04-01 00:00:00 Retrieval-augmented generation (RAG) with large language models (LLMs) has demonstrated strong performance in multilingual question-answering (QA) tasks by leveraging relevant passages retrieved from corpora. In multilingual RAG (mRAG), the retrieved passages can be written in languages other than that of the query entered by the user, making it challenging for LLMs to effectively utilize the provided information. Recent research suggests that retrieving passages from multilingual corpora can improve RAG performance, particularly for low-resource languages. However, the extent to which LLMs can leverage different kinds of multilingual contexts to generate accurate answers, *independently from retrieval quality*, remains understudied. In this paper, we conduct an extensive assessment of LLMs' ability to (i) make consistent use of a relevant passage regardless of its language, (ii) respond in the expected language, and (iii) focus on the relevant passage even when multiple `distracting' passages in different languages are provided in the context. Our experiments with four LLMs across three QA datasets covering a total of 48 languages reveal a surprising ability of LLMs to extract the relevant information from out-language passages, but a much weaker ability to formulate a full answer in the correct language. Our analysis, based on both accuracy and feature attribution techniques, further shows that distracting passages negatively impact answer quality regardless of their language. However, distractors in the query language exert a slightly stronger influence. Taken together, our findings deepen the understanding of how LLMs utilize context in mRAG systems, providing directions for future improvements. 논문 다운로드 |
📄
category : [RAG] Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning [검색-R1: 리플레이스 핸들러를 활용하는 텍스트 모델 튜닝과 그에 대한 강화학습] 발행인: Bowen Jin, Hansi Zeng, Zhenrui Yue, Jinsung Yoon, Sercan Arik, Dong Wang, Hamed Zamani, Jiawei Han 발행일: 2025-03-12 00:00:00 Efficiently acquiring external knowledge and up-to-date information is essential for effective reasoning and text generation in large language models (LLMs). Prompting advanced LLMs with reasoning capabilities to use search engines during inference is often suboptimal, as the LLM might not fully possess the capability on how to interact optimally with the search engine. This paper introduces Search-R1, an extension of reinforcement learning (RL) for reasoning frameworks where the LLM learns to autonomously generate (multiple) search queries during step-by-step reasoning with real-time retrieval. Search-R1 optimizes LLM reasoning trajectories with multi-turn search interactions, leveraging retrieved token masking for stable RL training and a simple outcome-based reward function. Experiments on seven question-answering datasets show that Search-R1 improves performance by 41% (Qwen2.5-7B) and 20% (Qwen2.5-3B) over various RAG baselines under the same setting. This paper further provides empirical insights into RL optimization methods, LLM choices, and response length dynamics in retrieval-augmented reasoning. The code and model checkpoints are available at https://github.com/PeterGriffinJin/Search-R1. 논문 다운로드 |
📄
category : [RAG] Decentralizing AI Memory: SHIMI, a Semantic Hierarchical Memory Index for Scalable Agent Reasoning [Tytle]: Decentralized AI Memory System: SHIMI - A Semantic Hierarchical Memory Index for Scalable Agent Reasoning [Abrrevated Title]: SHIMI, 하나의 분산된 AI 메모리 시스템: 수용성 높은 로봇 판단을 위한 상세화 지시기 메모리 인덱스 발행인: Tooraj Helmi 발행일: 2025-04-08 00:00:00 Retrieval-Augmented Generation (RAG) and vector-based search have become foundational tools for memory in AI systems, yet they struggle with abstraction, scalability, and semantic precision - especially in decentralized environments. We present SHIMI (Semantic Hierarchical Memory Index), a unified architecture that models knowledge as a dynamically structured hierarchy of concepts, enabling agents to retrieve information based on meaning rather than surface similarity. SHIMI organizes memory into layered semantic nodes and supports top-down traversal from abstract intent to specific entities, offering more precise and explainable retrieval. Critically, SHIMI is natively designed for decentralized ecosystems, where agents maintain local memory trees and synchronize them asynchronously across networks. We introduce a lightweight sync protocol that leverages Merkle-DAG summaries, Bloom filters, and CRDT-style conflict resolution to enable partial synchronization with minimal overhead. Through benchmark experiments and use cases involving decentralized agent collaboration, we demonstrate SHIMI's advantages in retrieval accuracy, semantic fidelity, and scalability - positioning it as a core infrastructure layer for decentralized cognitive systems. 논문 다운로드 |
반응형
'머신러닝_딥러닝 > 최신AI논문' 카테고리의 다른 글
최신 인공지능 연구 트렌드: 2025.04.14(월) (0) | 2025.04.14 |
---|