[OP 4 APRIL IS DE ZAAL IN UTRECHT VOL. U KUNT NOG WEL ONLINE DEELNEMEN. OP ELK TIJDSTIP IS 1 SESSIE ENGELSTALIG.
DE WORKSHOPS OP 5 APRIL ZIJN LIVE IN UTRECHT, OP 19 APRIL ONLINE.]
Deze sessie bespreekt de data lakehouse, de nieuweling in de wereld van data-architecturen. Kort gezegd is het data lakehouse een combinatie van een datawarehouse en een data lake. Met andere woorden, deze architectuur is ontwikkeld om een typische datawarehouse-workload plus een datalake-workload te ondersteunen. Het bevat gestructureerde, semi-gestructureerde en ongestructureerde gegevens. Technisch gezien worden de gegevens in een data lakehouse opgeslagen in bestanden die toegankelijk zijn voor elk type tool en databaseserver. De gegevens worden niet gegijzeld door een specifieke databaseserver. SQL-engines hebben ook efficiënt toegang tot die gegevens voor meer traditionele business intelligence-workloads. En datascientists kunnen hun descriptive en prescriptive modellen rechtstreeks op de data ontwikkelen.
Het is heel logisch om deze twee werelden te combineren, omdat ze dezelfde gegevens en logica delen. Maar is dit echt mogelijk? Is dit allemaal te mooi om waar te zijn? In deze sessie worden verschillende aspecten van datawarehouses en datalakes besproken om te bepalen of de datalakehouse een marketinghype is of dat dit echt een waardevolle en realistische nieuwe data-architectuur is.
Lees minder
In deze sessie wordt u meegenomen in de meest gebruikte modellen. De toepassing ervan in context en de noodzaak om een model te kiezen bij het ritme en doelstelling van de data. Er is veel discussie over welk datamodel het best is. Goeroes vallen over elkaar heen. Afhankelijk van de achtergrond van de IT-er zijn ze meer of minder bekend met de keur aan beschikbare modellen. Door de focus op data science worden de onderliggende modellen vaak niet geadresseerd. Welk model u kiest heeft implicaties voor de mogelijkheden in de toekomst. Kies het datamodel dat past bij de doelstelling die u heeft met data, voor de gehele levenscyclus van de gegevens.
Waarom is dat nu relevant? De GDPR, de aankomende Data Act en AI Act vragen van bedrijven en instellingen om te weten welke data ze hebben, met welk doel, vanaf wanneer en tot wanneer. Dit zijn minimale eisen. In veel branches is de data ook als asset op de balans te vinden. Daarom is data in veel organisaties van een bij- naar een hoofdrol aan het gaan.
Een datamodel legt vast hoe de gegevenselementen zich tot elkaar verhouden. Of gegevens kunnen worden gecombineerd, hoe ze kunnen worden opgevraagd. Wat vaak over het hoofd wordt gezien, is dat je data niet alleen bewaart om te registeren, maar ook om te analyseren. Met de opkomst van Data Science, Articial Intelligence en Machine learning is de kwaliteit van de gegevens geen bijzaak meer. Er is geen mens meer om de vastgelegde gegevens eerst te interpreteren. Data wordt op grote schaal door de (wiskundige) modellen geïnterpreteerd door de computer, de computers worden ingezet in waar ze het best in zijn: rekenen. Als data op een verkeerde manier wordt bewaard, dan geven de modellen verkeerde uitkomsten met vaak desastreuze gevolgen.
De hoofdtypen modellen, relationeel, dimensioneel, ensemble en graven worden toegelicht.
Het belangrijkste gegeven bij het kiezen van een model is: welk belang in het kader van de doelen van de organisatie moet worden gediend? Is het belangrijk om zo secuur mogelijk te registreren wat er is gebeurd in interacties met een klant? Is het nodig om terug te kijken naar de gang van zaken, om te verbeteren? Of moet er vooruit gekeken worden naar de toekomst, gebaseerd op historische gegevens?
Vanuit de doelstellingen behandelen we de voor- en nadelen van elk model. Er is geen ‘one size fits all’ in datamodelleren. Keuzes gemaakt bij de ontwikkeling hebben langdurige gevolgen voor de toepassingen die met de data mogelijk zijn. Daaruit volgen implicaties voor de gehele data architectuur, in deze sessie focussen we op de datamodellen.
Most firms today want to create a high quality, compliant data foundation to support multiple analytical workloads. A rapidly emerging approach to building this is to create DataOps pipelines that produce reusable data products. However, there needs to be somewhere where these data products can be made available so data to be shared. The solution is a data marketplace where ready-made, high quality data products that can be published for others to consume and use. This session looks at what a data marketplace is, how to build one and how you can use it to govern data sharing across the enterprise and beyond. It also looks at what is needed to operate a data marketplace and the trend to become a marketplace for both data and analytical products.
Data Management omvat een breed gebied aan onderwerpen en aandachtsgebieden waar je mee te maken krijgt als organisatie die zich moet aanpassen aan een omgeving die steeds digitaler wordt. Waar begin je? En hoe maak je het tot iets dat door de hele organisatie omarmd wordt?
Inmiddels is Evides Waterbedrijf ruim 5 jaar onderweg om een data management programma uit te rollen en heel bewust te groeien naar een datagedreven en data-volwassen waterbedrijf. En terugkijkend zijn er wel enkele lessen te trekken die bepalend waren voor de ontwikkeling tot nu toe en tekent de toekomst zich steeds scherper af. Vanuit mens, proces, technologie en organisatie zijn verschillende stappen gezet die de revue zullen passeren:
Lees minder
Since Google announced its Knowledge Graph solution in 2012 the paradigm has found its way into many real-world use cases. These are mostly in the analytics space. The graph database market has exploded over the last 10 years with at least 50 brand names today. International Standardization is coming – very soon SQL will be extended by functionality for property query queries. A full international standard for property graphs, called GQL, will surface in late 2023.
The inclusion of graph technology dramatically enlarges the scope of analytics by enabling semi-structured information, semantic sources such as ontologies and taxonomies, social networks as well as schema-less sources of data. At the same time graph databases are much better suited for doing complex multi-joins analyzing large networks of data, opening up for advanced fraud detection etc. The Panama papers is the best-known example. Finally graph theory is a mathematical discipline with a long history, which among other things have created graph algorithms for many complex analytics, such as clustering, shortest path, page rank, centrality and much more.
This presentation will cover what a Knowledge Graph is, how it is different and yet complementary to other technologies. Furthermore, Thomas will cover:
It is a non-technical presentation, focusing on business requirements and architecture. More technical information will be covered in the workshop Understanding Graph Technologies on the 5th of April.
Lees minderThe concepts and practices of Data Mesh and Data Fabric are data management’s new hot topics. These contrasting yet complementary technology and organisational approaches promise better data management through the delivery of defined data products and the automation of real time data integration.
But to succeed both depend on getting their Data Quality foundations right. To work, Data Mesh requires high quality, well curated data sets and data products; Data Fabric also relies on high quality, standardised data and metadata which insulates data users from the complexities of multiple systems and platforms.
This session will briefly recap the main concepts and practices of Data Mesh and Data Fabric and consider their implications for Data Quality Management. Will the Mesh and Fabric make Data Quality easier or harder to get right? As a foundational data discipline how should Data Quality principles and practices evolve and adapt to meet the needs of these new trends? What new approaches and practices may be needed? What are the implications for Data Quality practitioners and other data management professionals working in other data disciplines such as Data Governance, Business Intelligence and Data Warehousing?
This session will include:
[On April 5th, Nigel will run a full day workshop on Data Strategy, check the conference schedule for details.]
Lees minderWe komen uit een wereld van algoritmen en de focus van AI ligt nog grotendeels op het optimaliseren van de modellen. In deze bijdrage door Jan Veldsink gaan we ons richten op datacentriciteit, de data in het midden plaatsen en er meerdere analyses/rapporten en applicaties van maken.
Datacentrische AI is een vorm van kunstmatige intelligentie die zich richt op het werken met en gebruiken van data om problemen op te lossen. Dit type AI omvat doorgaans het gebruik van machine learning-algoritmen en andere technieken om grote hoeveelheden gegevens te analyseren en er bruikbare inzichten uit te halen.
Enkele kernpunten van datagerichte AI zijn:
This session looks at the emergence of Data Observability and looks at what it is about, what Data Observability can observe, vendors in the market and examples of what vendors are capturing about data. The presentation will also look at Data Observability requirements, the strengths and weaknesses of current offerings, where the gaps are and tool complexity (overlaps, inability to share metadata) from a customer perspective. It will explore the link between Data Observability, data catalogs, data intelligence and the move towards augmented data governance and discuss how Data Observability and data intelligence can be used in a real-time automated Data Governance Action Framework to govern data across multiple tools and data stores in next generation Data governance.
Lees minder
Herman Bennema zal na een korte introductie van Vektis aan de hand van praktijkvoorbeelden laten zien wat voor informatie kan worden gehaald uit de declaratiegegevens (met een totale waarde van ruim 850 miljard euro) die door Vektis worden beheerd. Ook zal hij ingaan op de wettelijke kaders waarbinnen Vektis acteert en schets hij het dilemma waar we in Nederland voor staan: hoe zorgen we voor een gezonde balans tussen enerzijds het privacy risico bij gebruik van zorgdata en anderzijds de mogelijkheden om de zorg betaalbaar, toegankelijk en van hoge kwaliteit te houden op basis van data-analyse.
Engaging Stakeholders and Other Mere Mortals
Interest in Data Modelling, especially Concept Modelling (Conceptual Data Modelling) has increased dramatically in recent years. That’s great news, but our modelling can still be improved. When it’s done well, Concept Modelling is a powerful enabler of communication among different stakeholders including senior leaders, subject matter experts, business analysts, solution architects, and others. Unfortunately, the communication often gets lost – in the clouds, in the weeds, or somewhere off to the side. Sometimes the modeller has drifted too quickly into abstraction, sometimes the modeller has taken the famous “deep dive for detail,” but the outcome is the same – confusion, frustration, and detachment. The result – inaccurate, incomplete, or unappreciated models.
It doesn’t have to be this way! Drawing on over 40 years of successful modelling, this session describes core techniques, backed by practical examples, for helping people appreciate, use, and possibly even want to build data models.
Topics include:
[On April 5th, Alec will run a half day workshop on Concept Modelling, check the conference schedule for details.]
Lees minderDeze sessie bespreekt de data lakehouse, de nieuweling in de wereld van data-architecturen. Kort gezegd is het data lakehouse een combinatie van een datawarehouse en een data lake. Met andere woorden, deze architectuur is ontwikkeld om een typische datawarehouse-workload plus een datalake-workload te ondersteunen. Het bevat gestructureerde, semi-gestructureerde en ongestructureerde gegevens. Technisch gezien worden de gegevens in een data lakehouse opgeslagen in bestanden die toegankelijk zijn voor elk type tool en databaseserver. De gegevens worden niet gegijzeld door een specifieke databaseserver. SQL-engines hebben ook efficiënt toegang tot die gegevens voor meer traditionele business intelligence-workloads. En datascientists kunnen hun descriptive en prescriptive modellen rechtstreeks op de data ontwikkelen.
Het is heel logisch om deze twee werelden te combineren, omdat ze dezelfde gegevens en logica delen. Maar is dit echt mogelijk? Is dit allemaal te mooi om waar te zijn? In deze sessie worden verschillende aspecten van datawarehouses en datalakes besproken om te bepalen of de datalakehouse een marketinghype is of dat dit echt een waardevolle en realistische nieuwe data-architectuur is.
Lees minder
In deze sessie wordt u meegenomen in de meest gebruikte modellen. De toepassing ervan in context en de noodzaak om een model te kiezen bij het ritme en doelstelling van de data. Er is veel discussie over welk datamodel het best is. Goeroes vallen over elkaar heen. Afhankelijk van de achtergrond van de IT-er zijn ze meer of minder bekend met de keur aan beschikbare modellen. Door de focus op data science worden de onderliggende modellen vaak niet geadresseerd. Welk model u kiest heeft implicaties voor de mogelijkheden in de toekomst. Kies het datamodel dat past bij de doelstelling die u heeft met data, voor de gehele levenscyclus van de gegevens.
Waarom is dat nu relevant? De GDPR, de aankomende Data Act en AI Act vragen van bedrijven en instellingen om te weten welke data ze hebben, met welk doel, vanaf wanneer en tot wanneer. Dit zijn minimale eisen. In veel branches is de data ook als asset op de balans te vinden. Daarom is data in veel organisaties van een bij- naar een hoofdrol aan het gaan.
Een datamodel legt vast hoe de gegevenselementen zich tot elkaar verhouden. Of gegevens kunnen worden gecombineerd, hoe ze kunnen worden opgevraagd. Wat vaak over het hoofd wordt gezien, is dat je data niet alleen bewaart om te registeren, maar ook om te analyseren. Met de opkomst van Data Science, Articial Intelligence en Machine learning is de kwaliteit van de gegevens geen bijzaak meer. Er is geen mens meer om de vastgelegde gegevens eerst te interpreteren. Data wordt op grote schaal door de (wiskundige) modellen geïnterpreteerd door de computer, de computers worden ingezet in waar ze het best in zijn: rekenen. Als data op een verkeerde manier wordt bewaard, dan geven de modellen verkeerde uitkomsten met vaak desastreuze gevolgen.
De hoofdtypen modellen, relationeel, dimensioneel, ensemble en graven worden toegelicht.
Het belangrijkste gegeven bij het kiezen van een model is: welk belang in het kader van de doelen van de organisatie moet worden gediend? Is het belangrijk om zo secuur mogelijk te registreren wat er is gebeurd in interacties met een klant? Is het nodig om terug te kijken naar de gang van zaken, om te verbeteren? Of moet er vooruit gekeken worden naar de toekomst, gebaseerd op historische gegevens?
Vanuit de doelstellingen behandelen we de voor- en nadelen van elk model. Er is geen ‘one size fits all’ in datamodelleren. Keuzes gemaakt bij de ontwikkeling hebben langdurige gevolgen voor de toepassingen die met de data mogelijk zijn. Daaruit volgen implicaties voor de gehele data architectuur, in deze sessie focussen we op de datamodellen.
Most firms today want to create a high quality, compliant data foundation to support multiple analytical workloads. A rapidly emerging approach to building this is to create DataOps pipelines that produce reusable data products. However, there needs to be somewhere where these data products can be made available so data to be shared. The solution is a data marketplace where ready-made, high quality data products that can be published for others to consume and use. This session looks at what a data marketplace is, how to build one and how you can use it to govern data sharing across the enterprise and beyond. It also looks at what is needed to operate a data marketplace and the trend to become a marketplace for both data and analytical products.
Data Management omvat een breed gebied aan onderwerpen en aandachtsgebieden waar je mee te maken krijgt als organisatie die zich moet aanpassen aan een omgeving die steeds digitaler wordt. Waar begin je? En hoe maak je het tot iets dat door de hele organisatie omarmd wordt?
Inmiddels is Evides Waterbedrijf ruim 5 jaar onderweg om een data management programma uit te rollen en heel bewust te groeien naar een datagedreven en data-volwassen waterbedrijf. En terugkijkend zijn er wel enkele lessen te trekken die bepalend waren voor de ontwikkeling tot nu toe en tekent de toekomst zich steeds scherper af. Vanuit mens, proces, technologie en organisatie zijn verschillende stappen gezet die de revue zullen passeren:
Lees minder
Since Google announced its Knowledge Graph solution in 2012 the paradigm has found its way into many real-world use cases. These are mostly in the analytics space. The graph database market has exploded over the last 10 years with at least 50 brand names today. International Standardization is coming – very soon SQL will be extended by functionality for property query queries. A full international standard for property graphs, called GQL, will surface in late 2023.
The inclusion of graph technology dramatically enlarges the scope of analytics by enabling semi-structured information, semantic sources such as ontologies and taxonomies, social networks as well as schema-less sources of data. At the same time graph databases are much better suited for doing complex multi-joins analyzing large networks of data, opening up for advanced fraud detection etc. The Panama papers is the best-known example. Finally graph theory is a mathematical discipline with a long history, which among other things have created graph algorithms for many complex analytics, such as clustering, shortest path, page rank, centrality and much more.
This presentation will cover what a Knowledge Graph is, how it is different and yet complementary to other technologies. Furthermore, Thomas will cover:
It is a non-technical presentation, focusing on business requirements and architecture. More technical information will be covered in the workshop Understanding Graph Technologies on the 5th of April.
Lees minderThe concepts and practices of Data Mesh and Data Fabric are data management’s new hot topics. These contrasting yet complementary technology and organisational approaches promise better data management through the delivery of defined data products and the automation of real time data integration.
But to succeed both depend on getting their Data Quality foundations right. To work, Data Mesh requires high quality, well curated data sets and data products; Data Fabric also relies on high quality, standardised data and metadata which insulates data users from the complexities of multiple systems and platforms.
This session will briefly recap the main concepts and practices of Data Mesh and Data Fabric and consider their implications for Data Quality Management. Will the Mesh and Fabric make Data Quality easier or harder to get right? As a foundational data discipline how should Data Quality principles and practices evolve and adapt to meet the needs of these new trends? What new approaches and practices may be needed? What are the implications for Data Quality practitioners and other data management professionals working in other data disciplines such as Data Governance, Business Intelligence and Data Warehousing?
This session will include:
[On April 5th, Nigel will run a full day workshop on Data Strategy, check the conference schedule for details.]
Lees minderWe komen uit een wereld van algoritmen en de focus van AI ligt nog grotendeels op het optimaliseren van de modellen. In deze bijdrage door Jan Veldsink gaan we ons richten op datacentriciteit, de data in het midden plaatsen en er meerdere analyses/rapporten en applicaties van maken.
Datacentrische AI is een vorm van kunstmatige intelligentie die zich richt op het werken met en gebruiken van data om problemen op te lossen. Dit type AI omvat doorgaans het gebruik van machine learning-algoritmen en andere technieken om grote hoeveelheden gegevens te analyseren en er bruikbare inzichten uit te halen.
Enkele kernpunten van datagerichte AI zijn:
This session looks at the emergence of Data Observability and looks at what it is about, what Data Observability can observe, vendors in the market and examples of what vendors are capturing about data. The presentation will also look at Data Observability requirements, the strengths and weaknesses of current offerings, where the gaps are and tool complexity (overlaps, inability to share metadata) from a customer perspective. It will explore the link between Data Observability, data catalogs, data intelligence and the move towards augmented data governance and discuss how Data Observability and data intelligence can be used in a real-time automated Data Governance Action Framework to govern data across multiple tools and data stores in next generation Data governance.
Lees minder
Herman Bennema zal na een korte introductie van Vektis aan de hand van praktijkvoorbeelden laten zien wat voor informatie kan worden gehaald uit de declaratiegegevens (met een totale waarde van ruim 850 miljard euro) die door Vektis worden beheerd. Ook zal hij ingaan op de wettelijke kaders waarbinnen Vektis acteert en schets hij het dilemma waar we in Nederland voor staan: hoe zorgen we voor een gezonde balans tussen enerzijds het privacy risico bij gebruik van zorgdata en anderzijds de mogelijkheden om de zorg betaalbaar, toegankelijk en van hoge kwaliteit te houden op basis van data-analyse.
Engaging Stakeholders and Other Mere Mortals
Interest in Data Modelling, especially Concept Modelling (Conceptual Data Modelling) has increased dramatically in recent years. That’s great news, but our modelling can still be improved. When it’s done well, Concept Modelling is a powerful enabler of communication among different stakeholders including senior leaders, subject matter experts, business analysts, solution architects, and others. Unfortunately, the communication often gets lost – in the clouds, in the weeds, or somewhere off to the side. Sometimes the modeller has drifted too quickly into abstraction, sometimes the modeller has taken the famous “deep dive for detail,” but the outcome is the same – confusion, frustration, and detachment. The result – inaccurate, incomplete, or unappreciated models.
It doesn’t have to be this way! Drawing on over 40 years of successful modelling, this session describes core techniques, backed by practical examples, for helping people appreciate, use, and possibly even want to build data models.
Topics include:
[On April 5th, Alec will run a half day workshop on Concept Modelling, check the conference schedule for details.]
Lees minderIn this digital world, it is becoming clear to many organisations that their success or failure depends on how well they manage data. They recognise that data is as a critical business asset which should be managed as carefully and actively as all other business assets such as people, finance, products etc. But like any other asset data does not improve itself and will decline in usefulness and value unless actively maintained and enhanced.
For any organisation a critical first step in maintaining and enhancing its data asset is to understand two critical things:
The primary purpose of a data strategy is to answer these two critical questions. For any data driven organisation a data strategy is essential because it serves as a blueprint for prioritising and guiding current and future data improvement activities. Without a data strategy, organisations will inevitably try to enhance their data assets in a piecemeal, disconnected, unfocused way, usually ending in disappointment or even failure. What’s needed is a well crafted and coherent data strategy which sets out a clear direction which all data stakeholders can buy into. And as the famous US baseball player Yogi Berra once said, “If you don’t know where you are going, you’ll end up somewhere else.”
This seminar will teach you how to produce a workable and achievable data strategy and supporting roadmap and plan, and how to ensure that it becomes a living and agile blueprint for change.
The seminar
In this full day seminar Nigel Turner will outline how to create and implement a data strategy. This includes:
The seminar will take you through a simple and proven four step process to develop a data strategy. It will also include practical exercises to help participants apply the approach before doing it for real back in their own organisations, as well as highlighting some real world case studies where the approach has been successful.
Learning Objectives
Since Google announced its Knowledge Graph solution in 2012 graph database technologies have found their way into many organizations and companies. The graph database market has exploded over the last 10 years with at least 50 brand names today. International Standardization is coming – very soon SQL will be extended by functionality for property graph queries. A full international standard for property graphs, called GQL, will surface in late 2023 (from the same ISO committee that maintains the SQL standard).
Graph databases are generally quite easy to understand – the paradigm is intuitive and seems straightforward. In spite of that, the breadth and power of the solutions, one can create, are overwhelmingly impressive. The inclusion of graph technology dramatically enlarges the scope of analytics by enabling semi-structured information, semantic sources such as ontologies and taxonomies, social networks as well as schema-less sources of data.
At the same time graph databases are much better suited for doing complex multi-joins analyzing large networks of data, opening up for advanced fraud detection etc. The Panama papers is the best-known example.
Finally graph theory is a mathematical discipline with a long history, which among other things have created graph algorithms for many complex analytics, such as clustering, shortest path, page rank, centrality and much more.
Learning Objectives
Who is it for?
Although code examples (in graph database query languages) will be used frequently, the audience is not expected to be proficient database developers (but even SQL experts will benefit from the workshop).
Workshop Course Outline
It is a somewhat technical workshop, focusing on what and how, using examples. Business and architectural level information can be found in the knowledge graph session on the DW&BI Summit on April 4th.
Lees minderIn this digital world, it is becoming clear to many organisations that their success or failure depends on how well they manage data. They recognise that data is as a critical business asset which should be managed as carefully and actively as all other business assets such as people, finance, products etc. But like any other asset data does not improve itself and will decline in usefulness and value unless actively maintained and enhanced.
For any organisation a critical first step in maintaining and enhancing its data asset is to understand two critical things:
The primary purpose of a data strategy is to answer these two critical questions. For any data driven organisation a data strategy is essential because it serves as a blueprint for prioritising and guiding current and future data improvement activities. Without a data strategy, organisations will inevitably try to enhance their data assets in a piecemeal, disconnected, unfocused way, usually ending in disappointment or even failure. What’s needed is a well crafted and coherent data strategy which sets out a clear direction which all data stakeholders can buy into. And as the famous US baseball player Yogi Berra once said, “If you don’t know where you are going, you’ll end up somewhere else.”
This seminar will teach you how to produce a workable and achievable data strategy and supporting roadmap and plan, and how to ensure that it becomes a living and agile blueprint for change.
The seminar
In this full day seminar Nigel Turner will outline how to create and implement a data strategy. This includes:
The seminar will take you through a simple and proven four step process to develop a data strategy. It will also include practical exercises to help participants apply the approach before doing it for real back in their own organisations, as well as highlighting some real world case studies where the approach has been successful.
Learning Objectives
Since Google announced its Knowledge Graph solution in 2012 graph database technologies have found their way into many organizations and companies. The graph database market has exploded over the last 10 years with at least 50 brand names today. International Standardization is coming – very soon SQL will be extended by functionality for property graph queries. A full international standard for property graphs, called GQL, will surface in late 2023 (from the same ISO committee that maintains the SQL standard).
Graph databases are generally quite easy to understand – the paradigm is intuitive and seems straightforward. In spite of that, the breadth and power of the solutions, one can create, are overwhelmingly impressive. The inclusion of graph technology dramatically enlarges the scope of analytics by enabling semi-structured information, semantic sources such as ontologies and taxonomies, social networks as well as schema-less sources of data.
At the same time graph databases are much better suited for doing complex multi-joins analyzing large networks of data, opening up for advanced fraud detection etc. The Panama papers is the best-known example.
Finally graph theory is a mathematical discipline with a long history, which among other things have created graph algorithms for many complex analytics, such as clustering, shortest path, page rank, centrality and much more.
Learning Objectives
Who is it for?
Although code examples (in graph database query languages) will be used frequently, the audience is not expected to be proficient database developers (but even SQL experts will benefit from the workshop).
Workshop Course Outline
It is a somewhat technical workshop, focusing on what and how, using examples. Business and architectural level information can be found in the knowledge graph session on the DW&BI Summit on April 4th.
Lees minder
Liever online? Volg via de live stream!
Het congres kan zowel live in Utrecht als online worden gevolgd. Deelnemers aan het congres hebben bovendien nog enkele maanden toegang tot de video opnames dus als u een sessie moet missen, is er geen man overboord. Ook kunt u hierdoor alle parallelsessies achteraf nog bekijken.