👋 Ich absolviere derzeit einen Master in Informatik an der Northeastern University. Meine Forschungsschwerpunkte liegen in NLP, Information Retrieval, Retrieval-Augmented Generation, Empfehlungssystemen und Multi-Agenten-Systemen. Mein Google-Scholar-Profil finden Sie hier .

🎓 Meinen B.Sc. in Informatik habe ich an der Harbin Engineering University erworben. Aktuell forsche ich im Rahmen meines Masterstudiums am NEUIR Lab, betreut von Associate Professor Zhenghao Liu. Außerdem arbeite ich eng mit Qiyuan Lab Qiyuan Lab, ModelBest ModelBest und TsinghuaNLP TsinghuaNLP zusammen und werde zusätzlich von Associate Researcher Yukun Yan betreut.


🔥 Wir laden Sie herzlich ein, unser neues Projekt UltraRAG v3 auszuprobieren und mitzugestalten!

🔥 Feedback, Ideen und Beiträge sind jederzeit willkommen.

Seitenaufrufe: · Letzte Aktualisierung: 2026-03-22 · hdxin2002@gmail.com

🔥 Neuigkeiten

  • 2026.02:  🎉 Unser Paper Knowledge Intensive Agents wurde bei AI Open (IF=14.8) angenommen!
  • 2026.01:  🎉 UltraRAG v3 erreichte Platz 2 bei GitHub Trending!
  • 2026.01:  🎉 Wir haben UltraRAG v3 veröffentlicht, sodass jeder Schritt der Inferenz transparent nachvollziehbar wird!
  • 2025.11:  🎉 Unser Paper LISRec wurde bei KDD 2026 (CCF-A) angenommen!
  • 2025.11:  🎉 Wir haben UltraRAG v2.1 veröffentlicht und multimodale Unterstützung sowie ein einheitlicheres Evaluations-Framework ergänzt!
  • 2025.08:  🎉 Wir haben UltraRAG v2 veröffentlicht, ein Low-Code-Framework zum Aufbau komplexer RAG-Systeme!
  • 2025.08:  🎉 Unser Paper TASTE$^+$ wurde bei WISA 2025 angenommen und für eine mündliche Präsentation ausgewählt!
  • 2025.08:  🎉 Unser Paper LLMsPark wurde bei EMNLP 2025 (CCF-B) angenommen!
  • 2024.04:  🎉 Wir haben das GitHub-Repository heu-icicles veröffentlicht und laden herzlich zum Mitwirken ein!
  • 2024.02:  🎉 Unser Paper MMAD wurde bei COLING 2024 (CCF-B) angenommen!
  • 2023.05:  🎉 Unser Paper erhielt eine Honorable Mention beim MCM/ICM 2023!

📝 Publikationen

* kennzeichnet gleichen Beitrag, und † kennzeichnet den korrespondierenden Autor.

ArXiv 2026
MetaMem paper figure

MetaMem: Evolving Meta-Memory for Knowledge Utilization through Self-Reflective Symbolic Optimization

Haidong Xin$^{*}$, Xinze Li$^{*}$, Zhenghao Liu$^†$, Yukun Yan$^†$, Shuo Wang, Cheng Yang, Yu Gu, Ge Yu, Maosong Sun

arXiv GitHub Repo Stars

Diese Arbeit stellt MetaMem vor, ein Meta-Memory-Framework, das Meta-Gedächtnis durch selbstreflektierende symbolische Optimierung weiterentwickelt und so die Wissensnutzung in langfristigen Mensch-LLM-Interaktionen verbessert.

ArXiv 2026
PAGER paper figure

Structured Knowledge Representation through Contextual Pages for Retrieval-Augmented Generation

Xinze Li, Zhenghao Liu$^†$, Haidong Xin, Yukun Yan$^†$, Shuo Wang, Zheni Zeng, Sen Mei, Ge Yu, Maosong Sun

arXiv GitHub Repo Stars

Diese Arbeit verbessert RAG-Systeme, indem strukturierte kognitive Gliederungen aufgebaut werden, die die iterative Suche steuern und mehrdimensionale Wissensbestände in kohärente Seiten organisieren, um präzisere Antworten zu erzeugen.

KDD 2026
LISRec paper figure

LISRec: Modeling User Preferences with Learned Item Shortcuts for Sequential Recommendation

Haidong Xin, Zhenghao Liu$^†$, Sen Mei, Yukun Yan, Shi Yu, Shuo Wang, Zulong Chen, Yu Gu, Ge Yu, Chenyan Xiong

arXiv GitHub Repo Stars

Diese Arbeit verbessert sequenzielle Empfehlungssysteme, indem personalisierte semantische Abkürzungen aus Nutzer-Item-Interaktionshistorien extrahiert werden, wodurch stabile Präferenzen besser erfasst werden.

AI Open
Knowledge Intensive Agents survey figure

Knowledge Intensive Agents

Zhenghao Liu, Pengcheng Huang, Zhipeng Xu, Xinze Li, Shuliang Liu, Chunyi Peng, Haidong Xin, Yukun Yan$^†$, Shuo Wang, Xu Han, Zhiyuan Liu$^†$, Maosong Sun$^†$, Yu Gu, Ge Yu

DOI

Diese Arbeit bietet einen umfassenden Überblick über Retrieval-Augmented Generation aus agentischer Perspektive, kategorisiert wissensintensive Agenten nach Wissensakquise und -nutzung und hebt zukünftige Richtungen für die gemeinsame Optimierung in Multi-Agent-RAG-Systemen hervor.

WISA 2025
TASTE+ paper figure

Adapting Language Models to Text Matching based Recommendation Systems

Haidong Xin, Sen Mei, Zhenghao Liu$^†$, Xiaohua Li, Minghe Yu, Yu Gu, Ge Yu

DOI GitHub Repo Stars

Diese Arbeit verbessert die Leistung von Text-Matching in Empfehlungssystemen deutlich, indem Vortraining mit Sprachmodellen integriert wird.

EMNLP 2025
LLMsPark paper figure

LLMsPark: A Benchmark for Evaluating Large Language Models in Strategic Gaming Contexts

Junhao Chen, Jingbo Sun, Xiang Li, Haidong Xin, Yuhao Xue, Yibin Xu, Hao Zhao$^†$

arXiv

Diese Arbeit führt LLMsPark ein, eine auf Spieltheorie basierende Plattform zur Bewertung strategischer Verhaltensweisen und Entscheidungsfähigkeiten großer Sprachmodelle in Multi-Agenten-Umgebungen.

COLING 2024
MMAD paper figure

MMAD: Multi-modal Movie Audio Description

Xiaojun Ye, Junhao Chen, Xiang Li, Haidong Xin, Chao Li, Sheng Zhou$^†$, Jiajun Bu

ACL Anthology GitHub Repo Stars

Diese Arbeit hat für sehbehinderte Menschen ein völlig neues Filmerlebnis erschlossen.

MCM/ICM 2023
MCM/ICM paper figure

Puzzle Game: Prediction and Classification of Wordle Solution Words

Haidong Xin$^{*†}$, Fang Wu$^{*}$, Zhitong Zhou$^{*}$

arXiv

Diese Arbeit führte eine detaillierte numerische Analyse des Spiels Wordle durch und legte die darin verborgenen statistischen Muster offen.

🏆 Auszeichnungen

  • 2025.11 🥇 Exzellenzstipendium für Studierende, 1. Preis
  • 2024.11 🥇 Exzellenzstipendium für Studierende, 1. Preis
  • 2023.07 🥈 Nationaler 2. Preis beim Chinese Collegiate Computing Competition (4C 2023)
  • 2023.05 🥈 Honorable Mention beim Mathematical Contest in Modeling (MCM/ICM 2023)
  • 2023.05 🥈 2. Preis beim internationalen Innovationswettbewerb für Studierende
  • 2022.11 🥇 1. Preis beim China Undergraduate Mathematical Contest in Modeling (CUMCM 2022)
  • 2022.10 🥈 2. Preis in der Mathematikmodellierungs-Liga der drei nordöstlichen Provinzen
  • 2022.05 🥇 Exzellenzstipendium für Studierende, 1. Preis
  • 2021.05 🥇 Exzellenzstipendium für Studierende, 1. Preis

📖 Bildungsweg

💬 Medienberichte

💻 Forschung und Praktika