Founded Year

2007

Stage

Series G | Alive

Total Raised

$631.1M

Valuation

$0000 

Last Raised

$50M | 5 mos ago

Revenue

$0000 

About Neo4j

Neo4j operates within the data management and analytics industry, providing a graph database that supports complex queries and data relationships, along with an analytics platform for data science. It serves sectors such as e-commerce, financial services, and government agencies. It was founded in 2007 and is based in San Mateo, California.

Headquarters Location

111 East 5th Avenue

San Mateo, California, 94401,

United States

855-636-4532

Loading...

ESPs containing Neo4j

The ESP matrix leverages data and analyst insight to identify and rank leading companies in a given technology landscape.

EXECUTION STRENGTH ➡MARKET STRENGTH ➡LEADERHIGHFLIEROUTPERFORMERCHALLENGER
Enterprise Tech / Data Management

The real-time database management market is a solution for organizations that require instant access to data across billions of transactions. It offers predictable sub-millisecond performance up to petabyte-scale with five-nines uptime and globally distributed, strongly consistent data. Real-time database management systems enable organizations to make instant decisions, respond to events in real-…

Neo4j named as Highflier among 15 other companies, including Snowflake, Oracle, and Cloudera.

Loading...

Expert Collections containing Neo4j

Expert Collections are analyst-curated lists that highlight the companies you need to know in the most important technology spaces.

Neo4j is included in 4 Expert Collections, including Unicorns- Billion Dollar Startups.

U

Unicorns- Billion Dollar Startups

1,270 items

T

Tech IPO Pipeline

825 items

G

Generative AI

1,299 items

Companies working on generative AI applications and infrastructure.

A

Artificial Intelligence

7,632 items

Neo4j Patents

Neo4j has filed 24 patents.

The 3 most popular patent topics include:

  • database management systems
  • free database management systems
  • data management
patents chart

Application Date

Grant Date

Title

Related Topics

Status

7/11/2023

1/14/2025

Transaction processing, Computer memory, Data management, Database management systems, Memory management

Grant

Application Date

7/11/2023

Grant Date

1/14/2025

Title

Related Topics

Transaction processing, Computer memory, Data management, Database management systems, Memory management

Status

Grant

Latest Neo4j News

Nach dem Hype: Graph- und KI-Trends

Apr 8, 2025

Bewährungsjahr für KI steht bevorNach dem Hype: Graph- und KI-Trends 08.04.2025 Anbieter zum Thema KI prescht weiter voran und wandelt sich vom Experiment zur Praxis. Nun stellen sich damit zwei Fragen: Was funktioniert? Und wo lohnt es sich? Der Graphdatenbanken-Anbieter Neo4j wirft einen Blick auf neue Formen von KI, die Rolle von Graphen und zukünftige Killerkriterien. KI und Graphtechnologie – die Experten des Graphdatenbanken-Anbieters Neo4j werfen einen Blick auf die Trends 2025. (Bild: © Getty Images) Während auf der einen Seite bereits am nächsten KI -Coup gearbeitet wird, kämpfen Unternehmen auf der anderen Seite noch mit der Integration. Neo4j hat die Trends 2025 rund um Graphdatenbanken und KI zusammengefasst. 1. KI-Adoption zwischen Vision und Wirklichkeit Manchmal wirkt KI wie ein einziges großes Wagnis mit unsicherem Ausgang. Die exorbitanten Investitionen sind im Jahr 2024 keineswegs zurückgegangen. Die Cloud-Hyperscaler bauen ihre Rechenkapazitäten aus, die KI-Anbieter füttern ihre Modelle und Superchip-Hersteller Nvidia eilt von einem Rekord zum nächsten. Im Arbeitsumfeld ist GenAI längst kein Neuling mehr, sondern täglicher Assistent. Kaum ein Entwickler, der beim Programmieren nicht darauf zugreift. In Deutschland sind ChatGPT & Co. sogar so beliebt, dass fast die Hälfte der Arbeitnehmenden (49 %) ihre KI-Lösungen sogar trotz Verbot vom Chef weiter nutzen würde. Und dennoch: Die Einführung von KI in Unternehmen gestaltet sich vielerorts als schwierig. Europa hinkt im weltweiten Vergleich hinterher. In Deutschland kämpfen Unternehmen mit regulatorischen Unsicherheiten, fehlenden Strategien und geeigneten Use Cases. Die Ausgaben für KI-Lösungen und -Features steigen ungeachtet dessen kontinuierlich und drücken auf IT-Budgets. Der erwartete Nutzen von Investitionen lässt dabei oft noch auf sich warten. Das Wunderwerkzeug GenAI ist damit laut Gartner Hype Cycle auf dem Weg ins Tal der Ernüchterung und muss im nächsten Jahr erst einmal beweisen, was es wirklich kann. 2. Agentic AI: Agenten auf dem Vormarsch Während Unternehmen noch an der praktischen Umsetzung arbeiten, geht die Entwicklung von KI ungebremst weiter. 2023 plauderten Anwender mit Chatbots. 2024 übernehmen KI-Agenten gleich komplette Workflows und Routineaufgaben. Die Rede ist von Agentic AI, die Zugriff auf eine Reihe von Werkzeugen erhält (z. B. Datenbank, Schnittstellen oder Service-Integrationen). Die agentenbasierte KI verfügt über „Chaining“-Fähigkeit und kann so eine Abfrage in einzelne Schritte aufteilen und sie der Reihe nach und zudem iterativ abarbeiten. Dabei agiert sie dynamisch, plant und ändert Aktionen kontextbedingt und delegiert Teilaufgaben an diverse Tools. Agentic AI ist nicht neu. Im nächsten Jahr könnte die KI jedoch eine ähnliche Erfolgsstory wie GenAI hinlegen. Anthropic stellte im Herbst KI-Agenten in Claude vor, die den Computer fast wie ein Mensch bedienen und dort selbstständig tippen, klicken und im Internet nach Informationen surfen. Auch Microsoft hat eigene Agenten am Start, die zukünftig Aufgaben im Vertrieb, Kundensupport und Buchhaltung erledigen sollen. Das Outsourcen von Routineaufgaben an die KI klingt verführerisch, stimmt aber zugleich mulmig. Wie lassen sich die Agenten kontrollieren und im Notfall bändigen? Wer übernimmt die Verantwortung, wenn etwas schief geht? Einen Chatbot um Antwortvorschläge für eine E-Mail zu bitten, ist eine Sache. Eine andere ist es, wenn die KI die Nachricht an den Geschäftspartner auf eigene Faust verfasst und abschickt. Zumal die Agenten Fehler machen und sich sogar ablenken lassen. Anthropics Claude z. B. legte in einer Demo plötzlich eine Pause ein und fing an, im Internet nach Fotos des Yellowstone-Nationalparks zu suchen. Hier gilt es noch, Kriterien zu definieren, wie die korrekte Ausführung zu überprüfen und wie im Fehlerfall zu reagieren ist. 3. Reasoning AI: lautes Nachdenken in der Blackbox Ebenfalls nicht ganz neu, aber hochinteressant ist Reasoning AI. Wie bei GenAI generieren hier LLM Antworten, nehmen sich dabei jedoch deutlich mehr Zeit, um über die Frage in gewisser Weise „laut nachzudenken“. Die Modelle erwägen Optionen, entwerfen Lösungen und verwerfen sie wieder, ehe sie mit einem Vorschlag herausrücken. Das dauert zwar länger, die Qualität der Ergebnisse ist dafür aber deutlich höher. OpenAIs KI-Modell o1 schaffte es mit solchen logisch angelegten, mathematischen Fähigkeiten sogar unter die Top 500 der US-Mathematik-Olympiade (AIME). Auch Reasoning AI hat ein Problem: Der „Denkprozess“ (Chain of Thought) findet versteckt im LLM statt und ist von außen nicht einsehbar. Das „laute Nachdenken“ der KI verläuft also tatsächlich im Stillen und kratzt deutlich an der Vertrauenswürdigkeit. Darüber hinaus sind die erhöhte Laufzeit und Kosten eher für individuelle Forschungsaufgaben geeignet als für Endnutzer. Jetzt Newsletter abonnieren Abonnieren Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen . Weitere Informationen finde ich in unserer Datenschutzerklärung . Aufklappen für Details zu Ihrer Einwilligung Stand vom 15.04.2021 Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung . Einwilligung in die Verwendung von Daten zu Werbezwecken Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7/9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden. Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden. Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Recht auf Widerruf Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung , Abschnitt Redaktionelle Newsletter. 4. Artificial General Intelligence (AGI) Während sich Agentic AI und Reasoning AI bereits in der Realität wiederfinden, bleibt Artificial General Intelligence (AGI) zumindest vorerst Science-Fiction. Es ist noch ein langer und größtenteils hypothetischer Weg, bis künstliche Intelligenz mit der generischen menschlichen Intelligenz gleichzieht oder sie sogar übertrifft. So beeindruckend der KI-Sprung der letzten Jahre erscheint, gibt es immer noch sehr einfache Aufgaben, bei denen die KI dramatisch versagt (z. B. Scrollen und Drag-and-drop-Funktionen). Zudem ist unklar, ob der Weg, auf dem sich die KI-Entwicklung momentan befindet, letztlich überhaupt zu AGI führt und – vielleicht viel wichtiger – ob diese Art generelle höhere Intelligenz überhaupt nötig und gewollt ist. In vielen Fällen wird es eher darum gehen, Spezialisierung der KI vorzunehmen. 5. Small Language Models (SML): vertikal und sparsam Statt Science-Fiction wird es im Jahr 2025 für Unternehmen vornehmlich darum gehen, bestehende KI-Technologien effektiv in der Praxis zu nutzen. Die Integration ist nicht nur eine Frage von Compliance und Expertise, sondern auch eine Frage der Kosten. Sobald KI in großem Maßstab zum Einsatz kommt, ist sie (ähnlich wie die Cloud) nicht gerade billig. Zudem schaffen auf öffentlich verfügbaren Daten trainierte LLM wenig Raum, um sich von anderen Anwendern und Wettbewerbern am Markt zu differenzieren. Unternehmen richten ihr Interesse daher verstärkt auf vertikale KI, die zielgenau auf individuelle Use Cases und Bedürfnisse ausgerichtet ist und kontinuierlich verfeinert, optimiert und angepasst wird (Post Training). Statt Large Language Model fällt immer öfter die Wahl auf Small Language Models (SLMs), die es in Sachen Leistung in domänen- und branchenspezifischen Bereichen getrost mit den Großen aufnehmen können. Ihr Vorteil: Die kleinen Modelle lassen sich besser kontrollieren und validieren (z. B. via Knowledge-Graphen), das Training mit hochqualitativen Daten verläuft schneller, und sie benötigen weniger als fünf Prozent des Energieverbrauchs von LLM – angesichts EU Green Deal und ESG-Reporting für Unternehmen kein unerheblicher Punkt. Zudem lassen sich mit guten LLM hochwertige synthetische Trainingsdaten für SLMs erzeugen, sodass diese praktisch „angelernt“ werden können. 6. All you need is data Während KI-Anbietern wie OpenAI, Anthropic, IBM oder Google langsam die öffentlichen Daten ausgehen, beschäftigt Unternehmen vor allem die Verwendung ihrer eigenen Daten. Wie leistungsstark die KI konkret ist, hängt von der Fähigkeit der Verantwortlichen ab, die Modelle mit ihren eigenen Datensätzen zu verknüpfen und anzureichern – von Retrieval Augmented Generation (RAG) über Fine-Tuning bis hin zum Training eigener Modelle. Datenqualität ist deshalb grundentscheidend. In den meisten Fällen liegen in Organisationen ausreichend strukturierte Daten vor, in denen schon die Essenz ihres Geschäftsbetriebs repräsentiert ist. So wichtig strukturierte Daten sind, machen sie doch nur zehn Prozent der verfügbaren Daten aus. Die anderen 90 Prozent bestehen aus unstrukturierten Daten (z. B. Dokumente, Video, Bild). GenAI, Natural Language Processing und Graphtechnologie helfen, diese Daten nutzbar zu machen. Knowledge Graphen beispielsweise repräsentieren unstrukturierte Daten so, dass LLM sie als Kontext „verstehen“ können. Dabei erhalten sie dank der Graphstruktur ihre Reichhaltigkeit. 7. Graphtechnologie im Mittelpunkt Überhaupt bieten Graphen als Netzwerk von Informationen auf allen Ebenen eine ideale Repräsentation von Daten – egal ob strukturiert oder unstrukturiert. GraphRAG ist dafür ein gutes Beispiel. Der RAG-Ansatz stellt in GenAI-Anwendungen einen Knowledge Graphen als zusätzliche Quelle domänenspezifischer Daten zur Seite. Das macht Ergebnisse genauer, aktueller, erklärbarer und transparenter. Eine zunehmend wichtige Rolle spielen dabei Graph Patterns. Diese Muster stellen differenzierte Informationen dar und können bestimmten Arten von komplexen Fragen beantworten. Ein weiteres Beispiel für die Verzahnung von KI und Graphen sind Graph Neural Networks (GNN). Die neuronalen Netze versuchen besonders schwierige Probleme zu lösen. Google DeepMind arbeitet mit GNNs seit Jahren an zahlreichen Projekten, z. B. an einer intelligenten Wettervorhersage (GraphCast) oder einem KI-gestützten Design von Halbleitern (AlphaChip). Im November 2024 veröffentlichte das Unternehmen die dritte Version von AlphaFold, einem KI-System, das die Struktur von Proteinen sowie deren Interaktionen mit anderen Biomolekülen präzise vorhersagen kann. Das Zusammenspiel zwischen Graphen und KI verläuft zudem in die andere Richtung. So helfen LLM beispielsweise bei der Graph-Modellierung, verbessern das Domain- und Modellverständnis, kommunizieren bzw. agieren mit den im Graphen abgelegten Daten und identifizieren und erstellen neue Verknüpfungen. 8. Evaluation der KI durch KI Der Startpunkt, um KI-Anwendungen zu entwickeln, ist angesichts solcher Technologien mittlerweile recht einfach. Die Anwendung zu validieren und zuverlässig in die Produktion zu überführen, kostet hingegen viel Zeit und Aufwand. LLM arbeiten probabilistisch, generieren also Aussagen lediglich mit einer bestimmten Wahrscheinlichkeit. Evaluation ist 2025 daher das Thema. Kontroll- und Feedbackmechanismen sind dringend nötig, um Fehlerfortpflanzung zu vermeiden, die Datenqualität zu prüfen und regulatorische Richtlinien zu erfüllen. Herkömmliche Ansätze greifen oft zu kurz. Um die KI zu kontrollieren, kommt wieder KI zum Einsatz. Schiedsrichter-LLM können z. B. die Ergebnisse einer anderen LLM hinterfragen und auf die Korrektheit bzw. Angemessenheit der Frage sowie auf unangemessene oder illegale Inhalte untersuchen. KI-basierte Fairness-Toolkits testen auf Data Bias. Anthropic forscht momentan an sogenannten Interpretable Features, die in den Modellen selbst enthalten sind und GenAI-Resultate in eine gewisse Richtung beeinflussen. Richtig umgesetzt, könnten diese Tendenzen gesteuert werden und dann als Sicherheitsmechanismen dienen. 9. Lingua franca für die KI-Welt KI interagiert mit Menschen, Maschinen und anderen KI-Modellen. Klar, im Chatbot antwortet die KI in natürlicher Sprache. Doch die Tech-Welt ist multilingual, andere Systeme nutzen andere Sprachen (z. B. Abfragesprachen, API -Code) und in Zukunft kommunizieren die KI-Modelle verstärkt auch untereinander. Je mehr die Integration von KI in bestehende IT-Infrastrukturen zunimmt, desto wichtiger ist es, entsprechende „Sprach“-Schnittstellen zu entwickeln. Im Graph-Umfeld beispielsweise dienen LLM als Dolmetscher, um Fragen in natürlicher Sprache in die Abfragesprache Cypher zu übersetzen (Text2Cypher). Langfristig stellt sich die Frage, ob es eine einheitliche Verkehrssprache braucht, um eine dauerhafte Verständigung sicherzustellen und ein Sprachchaos à la Turm von Babel zu vermeiden. Oder ob gerade die Flexibilität der natürlichen und technischen Sprachen einen großen Vorteil in der Verwendung von LLM darstellt. 10. Integration statt großer Neuentwurf In den letzten zwei Jahren war viel die Rede davon, GenAI-Systeme gänzlich neu zu bauen und quasi auf der grünen Wiese anzufangen. Die Realität sieht jedoch anders aus: Unternehmen blicken auf eine bestehende und komplexe IT-Infrastruktur, die sich nicht einfach auswechseln lässt. In der Praxis wird es daher hauptsächlich darum gehen, KI-Komponenten sinnvoll einzubinden bzw. bestehende Lösungen und Systeme mit KI-Fähigkeiten zu versehen. Auf operationaler Ebene braucht es ein Basis-Framework, in dem Richtlinien festgelegt, Prozesse vereinheitlicht und Ziele definiert sind, idealerweise unter Einbeziehung aller KI-Stakeholder im Unternehmen (z. B. C-Level, Entwicklerteam, IT, Compliance, Fachbereiche). Auf technischer Ebene gilt es, KI in Form gekapselter und integrierbarer Komponenten zu verpacken und diese an ausgesuchten Stellen (z. B. Nutzerinteraktion, Datenanalyse) zu integrieren. Wie man diese wachsende Komplexität an Architekturen managt, wird eine der großen Fragen der nächsten Jahre bleiben – bei der vielleicht auch die KI weiterhelfen kann.

Neo4j Frequently Asked Questions (FAQ)

  • When was Neo4j founded?

    Neo4j was founded in 2007.

  • Where is Neo4j's headquarters?

    Neo4j's headquarters is located at 111 East 5th Avenue, San Mateo.

  • What is Neo4j's latest funding round?

    Neo4j's latest funding round is Series G.

  • How much did Neo4j raise?

    Neo4j raised a total of $631.1M.

  • Who are the investors of Neo4j?

    Investors of Neo4j include Noteus Partners, One Peak Partners, Inovia Capital, Alanda Capital Management, Creandum and 18 more.

  • Who are Neo4j's competitors?

    Competitors of Neo4j include PuppyGraph, Ontotext, Dtangle, ApertureData, TigerGraph and 7 more.

Loading...

Compare Neo4j to Competitors

TigerGraph Logo
TigerGraph

TigerGraph operates within the graph database industry, focusing on analytics and machine learning on connected data. The company provides a graph database that supports applications like fraud detection, anti-money laundering, entity resolution, customer 360, recommendations, knowledge graph, cybersecurity, supply chain, Internet of Things (IoT), and network analysis. TigerGraph serves sectors that require relationship exploration from large datasets, such as financial services, healthcare, and technology. TigerGraph was formerly known as GraphSQL. It was founded in 2012 and is based in Redwood City, California.

MariaDB Logo
MariaDB

MariaDB is a cloud database company that specializes in open-source database products and services for various business sectors. The company offers enterprise and community versions of its database server, which support transactional, analytical, and mixed workloads for relational and JSON data models. Its services include technical support, database migration, remote database administration, consulting, and training. MariaDB was formerly known as SkySQI. It was founded in 2010 and is based in Milpitas, California.

G
GraphGrid

GraphGrid is a company focused on providing advanced data analytics and artificial intelligence solutions. Their main offerings include a platform for graph data and analytics, graph-enhanced data science and AI, and tools for collaborative knowledge graph management. The company primarily serves sectors that require sophisticated data-intensive solutions, such as financial services, government, and healthcare. It is based in Wooster, Ohio.

Aerospike Logo
Aerospike

Aerospike specializes in data management solutions within the NoSQL database sector. The company offers a distributed NoSQL database designed for high-speed reads and writes, capable of scaling from gigabytes to petabytes without performance trade-offs. Aerospike's database supports applications requiring consistent, sub-millisecond latency at a massive scale. Aerospike was formerly known as Citrusleaf. It was founded in 2009 and is based in Mountain View, California.

Riak Logo
Riak

Riak is a company that provides distributed NoSQL database solutions within the data management industry. Their offerings include Riak KV for key-value data storage and Riak TS for time series data management, capable of operating on commodity hardware and handling unstructured data. Riak serves sectors that need data availability and scalability, including the ecommerce and IoT industries. It was founded in 2008 and is based in Bellevue, Washington.

L
Linkurious

Linkurious is a software company that focuses on providing enterprise-ready graph intelligence solutions. The company's main services include data visualization and analytics solutions that help analysts and investigators find insights in complex connected data. Linkurious primarily sells to sectors such as banking, insurance, public sector, and non-profit organizations. It was founded in 2013 and is based in Montreuil, France.

Loading...

CBI websites generally use certain cookies to enable better interactions with our sites and services. Use of these cookies, which may be stored on your device, permits us to improve and customize your experience. You can read more about your cookie choices at our privacy policy here. By continuing to use this site you are consenting to these choices.