👋 Сейчас я учусь в магистратуре по компьютерным наукам в Northeastern University. Мои научные интересы охватывают NLP, информационный поиск, Retrieval-Augmented Generation, рекомендательные системы и мультиагентные системы. Мой профиль Google Scholar можно посмотреть здесь .

🎓 Я получил степень бакалавра по компьютерным наукам в Harbin Engineering University. Сейчас я учусь в магистратуре в NEUIR Lab под руководством доцента Zhenghao Liu. Я также тесно сотрудничаю с Qiyuan Lab Qiyuan Lab, ModelBest ModelBest и TsinghuaNLP TsinghuaNLP, а также получаю наставничество от Associate Researcher Yukun Yan.


🔥 Мы искренне приглашаем вас попробовать и поддержать наш новый проект UltraRAG v3!

🔥 Мы будем рады вашим отзывам, идеям и вкладу.

Просмотры страницы: · Последнее обновление: 2026-03-22 · hdxin2002@gmail.com

🔥 Новости

  • 2026.02:  🎉 Наша статья Knowledge Intensive Agents принята в AI Open (IF=14.8)!
  • 2026.01:  🎉 UltraRAG v3 поднялся на 2-е место в GitHub Trending!
  • 2026.01:  🎉 Мы выпустили UltraRAG v3, сделав прозрачным каждый шаг рассуждений!
  • 2025.11:  🎉 Наша статья LISRec принята на KDD 2026 (CCF-A)!
  • 2025.11:  🎉 Мы выпустили UltraRAG v2.1, добавив мультимодальную поддержку и более единый контур оценки!
  • 2025.08:  🎉 Мы выпустили UltraRAG v2, low-code фреймворк для построения сложных RAG-систем!
  • 2025.08:  🎉 Наша статья TASTE$^+$ принята на WISA 2025 и отобрана для устного доклада!
  • 2025.08:  🎉 Наша статья LLMsPark принята на EMNLP 2025 (CCF-B)!
  • 2024.04:  🎉 Мы выпустили GitHub-репозиторий heu-icicles и тепло приглашаем вас присоединиться к разработке!
  • 2024.02:  🎉 Наша статья MMAD принята на COLING 2024 (CCF-B)!
  • 2023.05:  🎉 Наша статья получила Honorable Mention на MCM/ICM 2023!

📝 Публикации

* означает равный вклад, а † означает автора для переписки.

ArXiv 2026
MetaMem paper figure

MetaMem: Evolving Meta-Memory for Knowledge Utilization through Self-Reflective Symbolic Optimization

Haidong Xin$^{*}$, Xinze Li$^{*}$, Zhenghao Liu$^†$, Yukun Yan$^†$, Shuo Wang, Cheng Yang, Yu Gu, Ge Yu, Maosong Sun

arXiv GitHub Repo Stars

В этой работе предлагается MetaMem, фреймворк метапамяти, который развивает метапамять с помощью саморефлексивной символической оптимизации и тем самым улучшает использование знаний в долгосрочных взаимодействиях человека и LLM.

ArXiv 2026
PAGER paper figure

Structured Knowledge Representation through Contextual Pages for Retrieval-Augmented Generation

Xinze Li, Zhenghao Liu$^†$, Haidong Xin, Yukun Yan$^†$, Shuo Wang, Zheni Zeng, Sen Mei, Ge Yu, Maosong Sun

arXiv GitHub Repo Stars

Эта работа усиливает RAG-системы, создавая структурированные когнитивные планы для управления итеративным поиском и эффективно организуя многомерные знания в согласованные страницы для более точной генерации ответов.

KDD 2026
LISRec paper figure

LISRec: Modeling User Preferences with Learned Item Shortcuts for Sequential Recommendation

Haidong Xin, Zhenghao Liu$^†$, Sen Mei, Yukun Yan, Shi Yu, Shuo Wang, Zulong Chen, Yu Gu, Ge Yu, Chenyan Xiong

arXiv GitHub Repo Stars

Эта работа улучшает последовательные рекомендательные системы, извлекая персонализированные семантические сокращения из истории взаимодействий пользователя с объектами и лучше моделируя устойчивые предпочтения.

AI Open
Knowledge Intensive Agents survey figure

Knowledge Intensive Agents

Zhenghao Liu, Pengcheng Huang, Zhipeng Xu, Xinze Li, Shuliang Liu, Chunyi Peng, Haidong Xin, Yukun Yan$^†$, Shuo Wang, Xu Han, Zhiyuan Liu$^†$, Maosong Sun$^†$, Yu Gu, Ge Yu

DOI

Эта работа даёт всесторонний обзор Retrieval-Augmented Generation с агентной точки зрения, разделяя knowledge-intensive agents на роли приобретения и использования знаний и выделяя направления совместной оптимизации в multi-agent RAG-системах.

WISA 2025
TASTE+ paper figure

Adapting Language Models to Text Matching based Recommendation Systems

Haidong Xin, Sen Mei, Zhenghao Liu$^†$, Xiaohua Li, Minghe Yu, Yu Gu, Ge Yu

DOI GitHub Repo Stars

Эта работа значительно повышает качество текстового сопоставления в рекомендательных системах за счёт интеграции предварительного обучения языковых моделей.

EMNLP 2025
LLMsPark paper figure

LLMsPark: A Benchmark for Evaluating Large Language Models in Strategic Gaming Contexts

Junhao Chen, Jingbo Sun, Xiang Li, Haidong Xin, Yuhao Xue, Yibin Xu, Hao Zhao$^†$

arXiv

Эта работа представляет LLMsPark, основанную на теории игр платформу для оценки стратегического поведения и способностей к принятию решений больших языковых моделей в мультиагентных средах.

COLING 2024
MMAD paper figure

MMAD: Multi-modal Movie Audio Description

Xiaojun Ye, Junhao Chen, Xiang Li, Haidong Xin, Chao Li, Sheng Zhou$^†$, Jiajun Bu

ACL Anthology GitHub Repo Stars

Эта работа открыла совершенно новый опыт просмотра фильмов для людей с нарушениями зрения.

MCM/ICM 2023
MCM/ICM paper figure

Puzzle Game: Prediction and Classification of Wordle Solution Words

Haidong Xin$^{*†}$, Fang Wu$^{*}$, Zhitong Zhou$^{*}$

arXiv

В этой работе был проведён подробный численный анализ игры Wordle, выявивший скрытые в ней статистические закономерности.

🏆 Награды

  • 2025.11 🥇 Стипендия для выдающихся студентов, 1-я премия
  • 2024.11 🥇 Стипендия для выдающихся студентов, 1-я премия
  • 2023.07 🥈 Национальный 2-й приз в Chinese Collegiate Computing Competition (4C 2023)
  • 2023.05 🥈 Honorable Mention на Mathematical Contest in Modeling (MCM/ICM 2023)
  • 2023.05 🥈 2-я премия международного конкурса студенческих инноваций
  • 2022.11 🥇 1-я премия в China Undergraduate Mathematical Contest in Modeling (CUMCM 2022)
  • 2022.10 🥈 2-я премия лиги по математическому моделированию трёх северо-восточных провинций
  • 2022.05 🥇 Стипендия для выдающихся студентов, 1-я премия
  • 2021.05 🥇 Стипендия для выдающихся студентов, 1-я премия

📖 Образование

💬 Упоминания в СМИ

💻 Исследования и стажировки