Большие языковые модели (LLM) продемонстрировали впечатляющие возможности естественного языка.

Однако они испытывают трудности с логическим рассуждением, требующим структурированных знаний.

Графы знаний, представляющие сущности и отношения в сетевом формате, могут предоставить недостающие базовые знания.





Подъем по лестнице причинности с помощью LLM, KG и векторного поиска
«Лестница причинности
, предложенная исследователем-первопроходцем Джудеей Перл, классифицирует различные уровни причинной…среды .com»





Но как мы можем заставить студентов LLM эффективно использовать графы знаний для обоснованных рассуждений?

Вот тут-то и приходят на помощь графовые алгоритмы.

В этой статье мы рассмотрим, как различные графовые алгоритмы позволяют LLM выполнять различные типы рассуждений, эффективно перемещаясь по графам знаний.

Дедуктивное мышление

Дедуктивное рассуждение применяет формальные логические правила для получения выводов. Графы знаний могут закодировать эти правила, но нам нужны эффективные способы связать выводы.

Именно здесь проявляют себя алгоритмы обратного и прямого связывания.

Прямая цепочка начинается с доступных данных и использует правила вывода для извлечения большего количества данных, пока цель не будет достигнута.

Это популярная стратегия внедрения экспертных систем, систем бизнес-правил и производственных правил.

Прямая цепочка также известна как прямая дедукция или прямое рассуждение.

def forwardChain(graph, startNodes, rules, goal):
  
  queue = startNodes
  
  while queue not empty:
  
    current = queue.pop()
    
    for rule in rules:
    
      if rule.appliesTo(current):
      
        newFact = rule.apply(current)
        
        if newFact == goal…