Ooit gingen we uit van de regel dat data-architecturen onafhankelijk van technologieën en producten opgezet moesten worden; eerst de data-architectuur en dan de bijpassende producten uitzoeken. Dat lukte ook omdat veel producten redelijk uitwisselbaar was. Maar kan dat nog steeds? De laatste jaren worden we geconfronteerd met een niet aflatende stroom technologieën voor het verwerken, analyseren en opslaan van gegevens. Denk hierbij aan Hadoop, NoSQL, NewSQL, GPU-databases, Spark en Kafka. Deze technologieën hebben een grote invloed op data-verwerkende architecturen, zoals datawarehouses en streaming applicaties. Maar het belangrijkste is dat veel van deze producten zeer unieke interne architecturen hebben en direct bepaalde data-architecturen afdwingen. Dus kunnen we nog wel een technologie onafhankelijke data-architectuur ontwikkelen? In deze sessie worden de unieke architecturen van de nieuwe technologieën op een rijtje gezet en hun mogelijke invloed op data-architecturen belicht.
Organizations worldwide are facing the challenge of effectively analyzing their exponentially growing data stores. Most data warehouses were designed before the big data explosion, and struggle to support modern workloads. To make due, many companies are cutting down on their data pipelines, severely limiting the productivity of data professionals.
This session will explore the case studies of three organizations who used the power of GPU to broaden their queries, analyze significantly more data, and extract previously unobtainable insights.
Lees minderHave you ever been disappointed with the results of traditional data requirements gathering, especially for BI and data analytics? Ever wished you could ‘cut to the chase’ and somehow model the data directly with the people who know it and want to use it. However, that’s not a realistic alternative, is it? Business people don’t do data modeling! But what if that wasn’t the case?
In this lively session Lawrence Corr shares his favourite collaborative modeling techniques – popularized in books such as ‘Business Model Generation’ and ‘Agile Data Warehouse Design’ – for successfully engaging stakeholders using BEAM (Business Event Analysis and Modeling) and the Business Model Canvas for value-driven BI requirements gathering and star schema design. Learn how visual thinking, narrative, 7Ws and lots of Post-it ™ notes can get your stakeholders thinking dimensionally and capturing their own data requirements with agility.
This session will cover:
Cloud diensten, in-memory databases en database servers die gebruik maken van massive parallel processing voeren de boventoon in de marketing hype van vandaag. Maar wat is er de laatste tien jaar nu echt veranderd in de databasemarkt? Welke aanbieders zijn in staat om vooruit te blijven lopen op technologisch gebied? Moeten we ons zorgen maken over de invloed van nieuwe hardware zoals GPU en non-volatile memory? En kunnen we wel vertrouwen op programmeurs om keer op keer het wiel opnieuw uit te vinden voor elke database-interactie? Wat zijn de hot technologies in de labs van de database leveranciers?
In deze sessie zal vooral worden gekeken naar:
More enterprises are seeking to transform themselves into data-driven, digitally based organisations. Many have recognised that this will not be solely achieved by acquiring new technologies and tools. Instead they are aware that becoming data-driven requires a holistic transformation of existing business models, involving culture change, process redesign and re-engineering, and a step change in data management capabilities.
To deliver this holistic transformation, creating and delivering a coherent and overarching data strategy is essential. Becoming data-driven requires a plan which spells out what an organisation must do to achieve its data transformational goals. A data strategy can be critical in answering questions such as: How ready are we to become data-driven? What data do we need to focus on, now and in the future? What problems and opportunities should we tackle first and why? What part does business intelligence and data warehousing have to play in a data strategy? How do we assess a data strategy’s success?
This session will outline how to produce a data strategy and supporting roadmap, and how to ensure that it becomes a living and agile blueprint for change rather than a statement of aspiration.
This session will cover:
Most analytic modelers wait until after they’ve built a model to consider deployment. Doing so practically ensures project failure. Their motivations are typically sincere but misplaced. In many cases, analysts want to first ensure that there is something worth deploying. However, there are very specific design issues that must be resolved before meaningful data exploration, data preparation and modeling can begin. The most obvious of many considerations to address ahead of modeling is whether senior management truly desires a deployed model. Perhaps the perceived purpose of the model is insight and not deployment at all. There is a myth that a model that manages to provide insight will also have the characteristics desirable in a deployed model. It is simply not true. No one benefits from this lack of foresight and communication. This session will convey imperative preparatory considerations to arrive at accountable, deployable and adoptable projects and Keith will share carefully chosen project design case studies and how deployment is a critical design consideration.
Jan Veldsink (Lead Artificial Intelligence en Cognitive Technologies bij Rabobank) legt uit hoe je de organisatie op orde kunt krijgen voor Machine Learning-projecten. In grote organisaties kan de toegang tot en het gebruik van alle juiste en relevante data een uitdaging zijn. In deze presentatie zal Jan uitleggen hoe de problemen die zich voordoen, kunnen worden opgelost en hoe de ontwikkelingscyclus kan worden georganiseerd, van development via testen tot in productie nemen. Ook zal hij laten zien hoe hij BigML heeft gebruikt en hoe de aanwezigen BigML in hun strategie kunnen inpassen. Mensen leren ook van voorbeelden, dus in dese sessie zal hij enkele van de successen en echte projecten laten zien op het gebied van voorkomen en oplossen van financiële criminaliteit.
Lees minderMost people will agree that data warehousing and business intelligence projects take too long to deliver tangible results. Often by the time a solution is in place, the business needs have changed. With all the talk about Agile development methods like SCRUM and Extreme Programming, the question arises as to how these approaches can be used to deliver data warehouse and business intelligence projects faster. This presentation will look at the 12 principles behind the Agile Manifesto and see how they might be applied in the context of a data warehouse project. The goal is to determine a method or methods to get a more rapid (2-4 weeks) delivery of portions of an enterprise data warehouse architecture. Real world examples with metrics will be discussed.
Ooit gingen we uit van de regel dat data-architecturen onafhankelijk van technologieën en producten opgezet moesten worden; eerst de data-architectuur en dan de bijpassende producten uitzoeken. Dat lukte ook omdat veel producten redelijk uitwisselbaar was. Maar kan dat nog steeds? De laatste jaren worden we geconfronteerd met een niet aflatende stroom technologieën voor het verwerken, analyseren en opslaan van gegevens. Denk hierbij aan Hadoop, NoSQL, NewSQL, GPU-databases, Spark en Kafka. Deze technologieën hebben een grote invloed op data-verwerkende architecturen, zoals datawarehouses en streaming applicaties. Maar het belangrijkste is dat veel van deze producten zeer unieke interne architecturen hebben en direct bepaalde data-architecturen afdwingen. Dus kunnen we nog wel een technologie onafhankelijke data-architectuur ontwikkelen? In deze sessie worden de unieke architecturen van de nieuwe technologieën op een rijtje gezet en hun mogelijke invloed op data-architecturen belicht.
Organizations worldwide are facing the challenge of effectively analyzing their exponentially growing data stores. Most data warehouses were designed before the big data explosion, and struggle to support modern workloads. To make due, many companies are cutting down on their data pipelines, severely limiting the productivity of data professionals.
This session will explore the case studies of three organizations who used the power of GPU to broaden their queries, analyze significantly more data, and extract previously unobtainable insights.
Lees minderHave you ever been disappointed with the results of traditional data requirements gathering, especially for BI and data analytics? Ever wished you could ‘cut to the chase’ and somehow model the data directly with the people who know it and want to use it. However, that’s not a realistic alternative, is it? Business people don’t do data modeling! But what if that wasn’t the case?
In this lively session Lawrence Corr shares his favourite collaborative modeling techniques – popularized in books such as ‘Business Model Generation’ and ‘Agile Data Warehouse Design’ – for successfully engaging stakeholders using BEAM (Business Event Analysis and Modeling) and the Business Model Canvas for value-driven BI requirements gathering and star schema design. Learn how visual thinking, narrative, 7Ws and lots of Post-it ™ notes can get your stakeholders thinking dimensionally and capturing their own data requirements with agility.
This session will cover:
Cloud diensten, in-memory databases en database servers die gebruik maken van massive parallel processing voeren de boventoon in de marketing hype van vandaag. Maar wat is er de laatste tien jaar nu echt veranderd in de databasemarkt? Welke aanbieders zijn in staat om vooruit te blijven lopen op technologisch gebied? Moeten we ons zorgen maken over de invloed van nieuwe hardware zoals GPU en non-volatile memory? En kunnen we wel vertrouwen op programmeurs om keer op keer het wiel opnieuw uit te vinden voor elke database-interactie? Wat zijn de hot technologies in de labs van de database leveranciers?
In deze sessie zal vooral worden gekeken naar:
More enterprises are seeking to transform themselves into data-driven, digitally based organisations. Many have recognised that this will not be solely achieved by acquiring new technologies and tools. Instead they are aware that becoming data-driven requires a holistic transformation of existing business models, involving culture change, process redesign and re-engineering, and a step change in data management capabilities.
To deliver this holistic transformation, creating and delivering a coherent and overarching data strategy is essential. Becoming data-driven requires a plan which spells out what an organisation must do to achieve its data transformational goals. A data strategy can be critical in answering questions such as: How ready are we to become data-driven? What data do we need to focus on, now and in the future? What problems and opportunities should we tackle first and why? What part does business intelligence and data warehousing have to play in a data strategy? How do we assess a data strategy’s success?
This session will outline how to produce a data strategy and supporting roadmap, and how to ensure that it becomes a living and agile blueprint for change rather than a statement of aspiration.
This session will cover:
Most analytic modelers wait until after they’ve built a model to consider deployment. Doing so practically ensures project failure. Their motivations are typically sincere but misplaced. In many cases, analysts want to first ensure that there is something worth deploying. However, there are very specific design issues that must be resolved before meaningful data exploration, data preparation and modeling can begin. The most obvious of many considerations to address ahead of modeling is whether senior management truly desires a deployed model. Perhaps the perceived purpose of the model is insight and not deployment at all. There is a myth that a model that manages to provide insight will also have the characteristics desirable in a deployed model. It is simply not true. No one benefits from this lack of foresight and communication. This session will convey imperative preparatory considerations to arrive at accountable, deployable and adoptable projects and Keith will share carefully chosen project design case studies and how deployment is a critical design consideration.
Jan Veldsink (Lead Artificial Intelligence en Cognitive Technologies bij Rabobank) legt uit hoe je de organisatie op orde kunt krijgen voor Machine Learning-projecten. In grote organisaties kan de toegang tot en het gebruik van alle juiste en relevante data een uitdaging zijn. In deze presentatie zal Jan uitleggen hoe de problemen die zich voordoen, kunnen worden opgelost en hoe de ontwikkelingscyclus kan worden georganiseerd, van development via testen tot in productie nemen. Ook zal hij laten zien hoe hij BigML heeft gebruikt en hoe de aanwezigen BigML in hun strategie kunnen inpassen. Mensen leren ook van voorbeelden, dus in dese sessie zal hij enkele van de successen en echte projecten laten zien op het gebied van voorkomen en oplossen van financiële criminaliteit.
Lees minderMost people will agree that data warehousing and business intelligence projects take too long to deliver tangible results. Often by the time a solution is in place, the business needs have changed. With all the talk about Agile development methods like SCRUM and Extreme Programming, the question arises as to how these approaches can be used to deliver data warehouse and business intelligence projects faster. This presentation will look at the 12 principles behind the Agile Manifesto and see how they might be applied in the context of a data warehouse project. The goal is to determine a method or methods to get a more rapid (2-4 weeks) delivery of portions of an enterprise data warehouse architecture. Real world examples with metrics will be discussed.
Many who work within organizations that are in the early stages of their digital transformation are surprised when an accurate model — built with good intentions and capable of producing measurable benefit to the organization — faces organizational resistance. No veteran modeler is surprised by this because all projects face some organizational resistance to some degree. This predictable and eminently manageable problem simply requires attention during the project’s design phase. Proper design will minimize resistance and most projects will proceed to their natural conclusion – deployed models that provide measurable and purposeful benefit to the organization. Keith will share carefully chosen case studies based upon real world projects that reveal why organizational resistance was a problem and how it was addressed.
Business teams verhogen de lat voor Business Intelligence en Datawarehouse ondersteuning. BI-competentiecentra en data manager moeten reageren op steeds uitgebreidere vereisten: meer gegevens, meer inzicht, maximale kwaliteit en nauwkeurigheid, zorgvuldige data governance, etc. De belofte van nieuwe technologieën zoals Artificial Intelligence trekt steeds meer aandacht en interesse en stimuleert datagedreven innovatie en een versnelde ontwikkeling van slimmere applicaties. Data Scientist-teams groeien en kunnen de leiding overnemen van BI-competentiecentra.
– Hoe moeten dergelijke ontwikkelingen, die logisch zijn vanuit het oogpunt van bedrijfsverbetering, worden ondersteund door data management activiteiten?
– Hoe de privacy te waarborgen en een effectieve strategie voor data-governance te creëren?
– Het wordt een grotere uitdaging om geschikte datawarehouses, BI-functionaliteit en data access controle te ontwerpen wanneer bedrijfsbelangen vaker veranderen en applicatie ontwikkeling gestimuleerd wordt door “AI initiatieven”.
In deze sessie bespreekt Peter technieken en technologie voor effectief (meta) gegevensbeheer en gegevensverwerking voor meer divers wordende data landschappen. Ook een passende governance-aanpak die geavanceerde functies van Business Intelligence en Insight Exploration ondersteunt, zal aan bod komen.
Lees minderThe world of data warehousing has changed! With the advent of Big Data, Streaming Data, IoT, and The Cloud, what is a modern data management professional to do? It may seem to be a very different world with different concepts, terms, and techniques. Or is it? Lots of people still talk about having a data warehouse or several data marts across their organization. But what does that really mean today? How about the Corporate Information Factory (CIF), the Data Vault, an Operational Data Store (ODS), or just star schemas? Where do they fit now (or do they)? And now we have the Extended Data Warehouse (XDW) as well. How do all these things help us bring value and data-based decisions to our organizations? Where do Big Data and the Cloud fit? Is there a coherent architecture we can define? This talk will endeavor to cut through the hype and the buzzword bingo to help you figure out what part of this is helpful. I will discuss what I have seen in the real world (working and not working!) and a bit of where I think we are going and need to go in today and beyond.
Al jaren bestaat de wereld van Business Intelligence (BI) uit het bouwen van rapporten en dashboards. De BI-wereld om ons heen verandert echter snel. (Statistical) Analytics worden meer en meer ingezet, elke student krijgt gedegen R-training en het gebruik van data verplaatst zich van IT naar business. Maar zijn we wel klaar voor deze nieuwe werkwijze? Zijn we in staat om de nieuw verkregen inzichten te delen? En kunnen we echt het onderbuikgevoel van het management veranderen?
Tijdens deze presentatie gaan we in op deze veranderende wereld. We gaan in op hoe we het data-driven storytelling proces kunnen toepassen binnen BI-projecten, welke rollen zijn hiervoor nodig en u krijgt handvatten om nieuw verkregen inzichten te communiceren via storytelling.
• Inzicht in het Data-driven storytelling process
• Visuele data exploratie
• Organisatorische wijzigingen
• Communiceren via Infographics
• Combineren van data, visualisatie en een verhaal.
The close links between data quality and business intelligence & data warehousing (BI/DW) have long been recognised. Their relationship is symbiotic. Robust data quality is a keystone for successful BI/DW; BI/DW can highlight data shortcomings and drive the need for better data quality. A key driver for the invention of data warehouses was that they would improve the integrity of the data they store and process.
Despite this close bond between these data disciplines, their marriage has not always been a successful one. Our industry is littered with failed BI/DW projects, with an inability to tackle and resolve underlying data quality issues often cited as a primary reason for failure. Today many analytics and data science projects are also failing to meet their goals for the same reason.
Why has the history of BI/DW been plagued with an inability to build and sustain the solid data quality foundation it needs? This presentation tackles these issues and suggests how BI/DW and data quality can and must support each other. The Ancient Greeks understood this. We must do the same.
This session will address:
Met de komst van cloud computing is het mogelijk geworden om data sneller te verwerken en infrastructuur mee te laten schalen met de benodigde opslag en cpu capaciteit. Waar voorheen batch computing de norm was en grote datawarehouses werden ontwikkeld, zien we een transitie naar data lakes en real-time verwerking. Eerst kwam de lambda architectuur die naast de batch processing een streaming processing layer toevoegde. En sinds 2014 zien we dat de kappa architectuur de batch processing layer uit de lambda architectuur helemaal weglaat.
Deze presentatie gaat in op Kappa architecturen. Wat zijn de voor- en nadelen van het verwerken van data langs deze architectuur ten opzichte van de oude batch verwerking of de tussentijdse lambda architectuur? Dit vraagstuk zal worden behandeld aan de hand van ervaringen bij KPN met een product gebaseerd op een Kappa architectuur: de Data Services Hub.
Centraal bij de beantwoording staan de aspecten die tegenwoordig worden toebedeeld aan innovatieve technologieën: homogenisatie en ontkoppeling, modulariteit, connectiviteit, programmeerbaarheid en het kunnen profiteren van ‘gebruikers’ sporen.
Volgend op haar succesvolle voorganger verheugen wij ons op de release van Quipu 4.0. We brengen zaken een stap verder door een hoger niveau in automatisering van data management te introduceren, waarbij patronen als uitgangspunt worden gehanteerd. Daarmee kan de implementatie van datawarehouses, data migraties, big data toepassingen en soortgelijke projecten veel sneller en makkelijker worden gemaakt. Op het nieuwe platform kunnen samen met klanten snel nieuwe bouwblokken worden ontwikkeld en toegevoegd, waarbij de klantbehoefte leidend is, waar het ontwikkeling betreft. In deze presentatie lichten wij onze visie toe en nodigen wij u uit om deelgenoot te zijn van onze doorontwikkeling.
Lees minderPublieke data marketplaces kennen we al heel lang. Het zijn omgevingen die allerlei dataproducten leveren die we kunnen afnemen. De laatste jaren is binnen organisaties een variant hiervan in opkomst gekomen: de enterprise data marketplace (ofwel dataloket). Een EDM is ontwikkeld door de eigen organisatie en levert dataproducten aan interne en externe dataconsumenten. Dataproducten kunnen rapporten zijn, dataservices, datastreams, batch bestanden, enzovoorts. Het essentiële verschil tussen een enterprise datawarehouse en een enterprise data marketplace is dat bij eerstgenoemde de gebruiker wordt gevraagd wat zij nodig hebben en bij de tweede wordt er aangenomen dat de eigenaars weten wat de gebruikers nodig hebben. Ofwel, we gaan van vraag-gedreven naar aanbod-gedreven. Dit klinkt allemaal eenvoudig, maar is dat geheel niet. In deze sessie wordt behandeld wat de uitdagingen van het ontwikkelen van een eigen enterprise data marketplace is.
Many who work within organizations that are in the early stages of their digital transformation are surprised when an accurate model — built with good intentions and capable of producing measurable benefit to the organization — faces organizational resistance. No veteran modeler is surprised by this because all projects face some organizational resistance to some degree. This predictable and eminently manageable problem simply requires attention during the project’s design phase. Proper design will minimize resistance and most projects will proceed to their natural conclusion – deployed models that provide measurable and purposeful benefit to the organization. Keith will share carefully chosen case studies based upon real world projects that reveal why organizational resistance was a problem and how it was addressed.
Business teams verhogen de lat voor Business Intelligence en Datawarehouse ondersteuning. BI-competentiecentra en data manager moeten reageren op steeds uitgebreidere vereisten: meer gegevens, meer inzicht, maximale kwaliteit en nauwkeurigheid, zorgvuldige data governance, etc. De belofte van nieuwe technologieën zoals Artificial Intelligence trekt steeds meer aandacht en interesse en stimuleert datagedreven innovatie en een versnelde ontwikkeling van slimmere applicaties. Data Scientist-teams groeien en kunnen de leiding overnemen van BI-competentiecentra.
– Hoe moeten dergelijke ontwikkelingen, die logisch zijn vanuit het oogpunt van bedrijfsverbetering, worden ondersteund door data management activiteiten?
– Hoe de privacy te waarborgen en een effectieve strategie voor data-governance te creëren?
– Het wordt een grotere uitdaging om geschikte datawarehouses, BI-functionaliteit en data access controle te ontwerpen wanneer bedrijfsbelangen vaker veranderen en applicatie ontwikkeling gestimuleerd wordt door “AI initiatieven”.
In deze sessie bespreekt Peter technieken en technologie voor effectief (meta) gegevensbeheer en gegevensverwerking voor meer divers wordende data landschappen. Ook een passende governance-aanpak die geavanceerde functies van Business Intelligence en Insight Exploration ondersteunt, zal aan bod komen.
Lees minderThe world of data warehousing has changed! With the advent of Big Data, Streaming Data, IoT, and The Cloud, what is a modern data management professional to do? It may seem to be a very different world with different concepts, terms, and techniques. Or is it? Lots of people still talk about having a data warehouse or several data marts across their organization. But what does that really mean today? How about the Corporate Information Factory (CIF), the Data Vault, an Operational Data Store (ODS), or just star schemas? Where do they fit now (or do they)? And now we have the Extended Data Warehouse (XDW) as well. How do all these things help us bring value and data-based decisions to our organizations? Where do Big Data and the Cloud fit? Is there a coherent architecture we can define? This talk will endeavor to cut through the hype and the buzzword bingo to help you figure out what part of this is helpful. I will discuss what I have seen in the real world (working and not working!) and a bit of where I think we are going and need to go in today and beyond.
Al jaren bestaat de wereld van Business Intelligence (BI) uit het bouwen van rapporten en dashboards. De BI-wereld om ons heen verandert echter snel. (Statistical) Analytics worden meer en meer ingezet, elke student krijgt gedegen R-training en het gebruik van data verplaatst zich van IT naar business. Maar zijn we wel klaar voor deze nieuwe werkwijze? Zijn we in staat om de nieuw verkregen inzichten te delen? En kunnen we echt het onderbuikgevoel van het management veranderen?
Tijdens deze presentatie gaan we in op deze veranderende wereld. We gaan in op hoe we het data-driven storytelling proces kunnen toepassen binnen BI-projecten, welke rollen zijn hiervoor nodig en u krijgt handvatten om nieuw verkregen inzichten te communiceren via storytelling.
• Inzicht in het Data-driven storytelling process
• Visuele data exploratie
• Organisatorische wijzigingen
• Communiceren via Infographics
• Combineren van data, visualisatie en een verhaal.
The close links between data quality and business intelligence & data warehousing (BI/DW) have long been recognised. Their relationship is symbiotic. Robust data quality is a keystone for successful BI/DW; BI/DW can highlight data shortcomings and drive the need for better data quality. A key driver for the invention of data warehouses was that they would improve the integrity of the data they store and process.
Despite this close bond between these data disciplines, their marriage has not always been a successful one. Our industry is littered with failed BI/DW projects, with an inability to tackle and resolve underlying data quality issues often cited as a primary reason for failure. Today many analytics and data science projects are also failing to meet their goals for the same reason.
Why has the history of BI/DW been plagued with an inability to build and sustain the solid data quality foundation it needs? This presentation tackles these issues and suggests how BI/DW and data quality can and must support each other. The Ancient Greeks understood this. We must do the same.
This session will address:
Met de komst van cloud computing is het mogelijk geworden om data sneller te verwerken en infrastructuur mee te laten schalen met de benodigde opslag en cpu capaciteit. Waar voorheen batch computing de norm was en grote datawarehouses werden ontwikkeld, zien we een transitie naar data lakes en real-time verwerking. Eerst kwam de lambda architectuur die naast de batch processing een streaming processing layer toevoegde. En sinds 2014 zien we dat de kappa architectuur de batch processing layer uit de lambda architectuur helemaal weglaat.
Deze presentatie gaat in op Kappa architecturen. Wat zijn de voor- en nadelen van het verwerken van data langs deze architectuur ten opzichte van de oude batch verwerking of de tussentijdse lambda architectuur? Dit vraagstuk zal worden behandeld aan de hand van ervaringen bij KPN met een product gebaseerd op een Kappa architectuur: de Data Services Hub.
Centraal bij de beantwoording staan de aspecten die tegenwoordig worden toebedeeld aan innovatieve technologieën: homogenisatie en ontkoppeling, modulariteit, connectiviteit, programmeerbaarheid en het kunnen profiteren van ‘gebruikers’ sporen.
Volgend op haar succesvolle voorganger verheugen wij ons op de release van Quipu 4.0. We brengen zaken een stap verder door een hoger niveau in automatisering van data management te introduceren, waarbij patronen als uitgangspunt worden gehanteerd. Daarmee kan de implementatie van datawarehouses, data migraties, big data toepassingen en soortgelijke projecten veel sneller en makkelijker worden gemaakt. Op het nieuwe platform kunnen samen met klanten snel nieuwe bouwblokken worden ontwikkeld en toegevoegd, waarbij de klantbehoefte leidend is, waar het ontwikkeling betreft. In deze presentatie lichten wij onze visie toe en nodigen wij u uit om deelgenoot te zijn van onze doorontwikkeling.
Lees minderPublieke data marketplaces kennen we al heel lang. Het zijn omgevingen die allerlei dataproducten leveren die we kunnen afnemen. De laatste jaren is binnen organisaties een variant hiervan in opkomst gekomen: de enterprise data marketplace (ofwel dataloket). Een EDM is ontwikkeld door de eigen organisatie en levert dataproducten aan interne en externe dataconsumenten. Dataproducten kunnen rapporten zijn, dataservices, datastreams, batch bestanden, enzovoorts. Het essentiële verschil tussen een enterprise datawarehouse en een enterprise data marketplace is dat bij eerstgenoemde de gebruiker wordt gevraagd wat zij nodig hebben en bij de tweede wordt er aangenomen dat de eigenaars weten wat de gebruikers nodig hebben. Ofwel, we gaan van vraag-gedreven naar aanbod-gedreven. Dit klinkt allemaal eenvoudig, maar is dat geheel niet. In deze sessie wordt behandeld wat de uitdagingen van het ontwikkelen van een eigen enterprise data marketplace is.
Agile techniques emphasise the early and frequent delivery of working software, stakeholder collaboration, responsiveness to change and waste elimination. They have revolutionised application development and are increasingly being adopted by DW/BI teams. This course provides practical tools and techniques for applying agility to the design of DW/BI database schemas – the earliest needed and most important working software for BI.
The course contrasts agile and non-agile DW/BI development and highlights the inherent failings of traditional BI requirements analysis and data modeling. Via class room sessions and team exercises attendees will discover how modelstorming (modeling + brainstorming) data requirements directly with BI stakeholders overcomes these limitations.
Learning objectives
You will learn how to:
Who Should Attend
You receive a free copy of the book Agile Data Warehouse Design by Lawrence Corr.
Agile Dimensional Modeling Fundamentals
Dimensional Modelstorming Tools
Star Schema Design
How Much/How Many: Designing facts, measures and KPIs (Key Performance Indicators)
Who & What dimension patterns: customers, employees, products and services
When & Where dimension patterns: dates, times and locations
Why & How dimension patterns: cause and effect
Supervised learning lost moderne analytische uitdagingen op en ondersteunt geïnformeerde besluitvorming. Alhoewel het voorspellend vermogen van machinelearning modellen indrukwekkend kan zijn, moet er wel een actie aan gekoppeld zijn om er profijt van te hebben. Modellen moeten daarnaast ook automatisch worden uitgerold om besluitvorming continue te kunnen ondersteunen en meetbare verschillen te realiseren. En hoewel ook unsupervised learning methoden krachtige analytische mogelijkheden bieden is hier vaak nog geen duidelijke route naar productie. Deze cursus laat zien wanneer welke vorm van machinelearning het beste past bij de business doelstellingen en hoe u meerwaarde kunt behalen uit beide benaderingen.
Regressieanalyse, decision trees, neurale netwerken, samen met vele andere supervised learning technieken, realiseren krachtige voorspellende inzichten wanneer historische resultaatwaarden beschikbaar zijn. Zodra deze modellen gebouwd zijn, genereren supervised learning modellen een score die gebruikt kan worden om automatische besluitvorming in organisaties te ondersteunen. Wij zullen verkennen hoe deze bewegende panelen strategisch gezien bij elkaar kunnen worden gebracht.
Unsupervised methoden zoals clusteranalyse, anomaly detectie en associatieregels zijn verkennend van aard en genereren niet zoals supervised learning modellen een voorspellende score. De vraag is hoe deze modellen in staat kunnen worden gesteld om organisatorische besluitvorming te ondersteunen. Deze cursus zal dat laten zien.
Deze cursus laat een verscheidenheid aan voorbeelden zien, te beginnen met het verkennen en interpreteren van modellen en hun toepassing. Mogelijkheden om met de resultaten van deze modellen verder te gaan zullen worden bezien. U zult ook zien hoe een verzameling van modellen, waaronder businessregels, supervised modellen en unsupervised modellen gezamenlijk kunnen worden toegepast in concrete situaties, zoals bij fraudedetectie en het verstrekken van verzekeringen.
Leerdoelen
Bestemd voor ú
Deze interactieve workshop is opgezet voor Analisten, Data scientists, IT Professionals, BI Professionals, Technology Planners, Consultants, Business analisten en Projectleiders van analyse opdrachten.
Onderwerpen
1. Model Development Introduction
Current Trends in AI, Machine Learning and Predictive Analytics
2. Strategic and Tactical Considerations in Binary Classification
3. Data Preparation for Supervised Models
4. The Tasks of the Model Phase
5. What is Unsupervised Learning?
6. Wrap-up and Next Steps
Agile techniques emphasise the early and frequent delivery of working software, stakeholder collaboration, responsiveness to change and waste elimination. They have revolutionised application development and are increasingly being adopted by DW/BI teams. This course provides practical tools and techniques for applying agility to the design of DW/BI database schemas – the earliest needed and most important working software for BI.
The course contrasts agile and non-agile DW/BI development and highlights the inherent failings of traditional BI requirements analysis and data modeling. Via class room sessions and team exercises attendees will discover how modelstorming (modeling + brainstorming) data requirements directly with BI stakeholders overcomes these limitations.
Learning objectives
You will learn how to:
Who Should Attend
You receive a free copy of the book Agile Data Warehouse Design by Lawrence Corr.
Agile Dimensional Modeling Fundamentals
Dimensional Modelstorming Tools
Star Schema Design
How Much/How Many: Designing facts, measures and KPIs (Key Performance Indicators)
Who & What dimension patterns: customers, employees, products and services
When & Where dimension patterns: dates, times and locations
Why & How dimension patterns: cause and effect
Supervised learning lost moderne analytische uitdagingen op en ondersteunt geïnformeerde besluitvorming. Alhoewel het voorspellend vermogen van machinelearning modellen indrukwekkend kan zijn, moet er wel een actie aan gekoppeld zijn om er profijt van te hebben. Modellen moeten daarnaast ook automatisch worden uitgerold om besluitvorming continue te kunnen ondersteunen en meetbare verschillen te realiseren. En hoewel ook unsupervised learning methoden krachtige analytische mogelijkheden bieden is hier vaak nog geen duidelijke route naar productie. Deze cursus laat zien wanneer welke vorm van machinelearning het beste past bij de business doelstellingen en hoe u meerwaarde kunt behalen uit beide benaderingen.
Regressieanalyse, decision trees, neurale netwerken, samen met vele andere supervised learning technieken, realiseren krachtige voorspellende inzichten wanneer historische resultaatwaarden beschikbaar zijn. Zodra deze modellen gebouwd zijn, genereren supervised learning modellen een score die gebruikt kan worden om automatische besluitvorming in organisaties te ondersteunen. Wij zullen verkennen hoe deze bewegende panelen strategisch gezien bij elkaar kunnen worden gebracht.
Unsupervised methoden zoals clusteranalyse, anomaly detectie en associatieregels zijn verkennend van aard en genereren niet zoals supervised learning modellen een voorspellende score. De vraag is hoe deze modellen in staat kunnen worden gesteld om organisatorische besluitvorming te ondersteunen. Deze cursus zal dat laten zien.
Deze cursus laat een verscheidenheid aan voorbeelden zien, te beginnen met het verkennen en interpreteren van modellen en hun toepassing. Mogelijkheden om met de resultaten van deze modellen verder te gaan zullen worden bezien. U zult ook zien hoe een verzameling van modellen, waaronder businessregels, supervised modellen en unsupervised modellen gezamenlijk kunnen worden toegepast in concrete situaties, zoals bij fraudedetectie en het verstrekken van verzekeringen.
Leerdoelen
Bestemd voor ú
Deze interactieve workshop is opgezet voor Analisten, Data scientists, IT Professionals, BI Professionals, Technology Planners, Consultants, Business analisten en Projectleiders van analyse opdrachten.
Onderwerpen
1. Model Development Introduction
Current Trends in AI, Machine Learning and Predictive Analytics
2. Strategic and Tactical Considerations in Binary Classification
3. Data Preparation for Supervised Models
4. The Tasks of the Model Phase
5. What is Unsupervised Learning?
6. Wrap-up and Next Steps
Tijdgebrek?
Heeft u slechts één dag de tijd om de DW&BI Summit te bezoeken? Maak een keuze uit de onderwerpen en kom op alleen 27 maart of op 28 maart. Het is namelijk ook mogelijk om alleen de eerste dag van het congres of alleen de tweede dag te bezoeken. De onderwerpen zijn zodanig gekozen dat zij op zich zelf staan zodat het ook mogelijk is om dag twee te volgen zonder dat u dag één heeft bijgewoond.