Вопрос о крупномасштабной архитектуре данных - это, конечно, обширная тема, и я далеко не специалист. Однако меня интересует, как JSON-LD используется в масштабе, поэтому, пожалуйста, извините за отсутствие конкретики и вопрос высокого уровня.
Очевидно, что такие крупные игроки, как Google, включают JSON-LD, например, в сеть знаний Google.
Если взять это в качестве примера и предположить, что JSON-LD используется в качестве формата данных для ввода-вывода в сети знаний, как строится база данных, чтобы можно было запрашивать такие массивы данных? Зависит ли он от преобразования в RDF-тройки для запросов с помощью SPARQL, или существуют другие архитектуры, которые позволяют запрашивать данные в необработанном формате JSON-LD? Какие уловки, если таковые имеются, позволяют обрабатывать (и запрашивать) JSON-LD в больших масштабах?
Такие системы, как MongoDB или Virtuoso (?), Полезны для управления большими данными в формате JSON и обеспечения их запросов, но всегда ли желательно указывать JSON (-LD) в качестве внутреннего формата для данных, а не, скажем, xml (если кто-то хочет использовать какой-то RDF)?
Опять же, извинения за неясность. Мы будем очень благодарны за любые комментарии, такие как общие указатели или обсуждение темы.