Data Fabric (data factory) is een informatiebeheerarchitectuur die de eindgebruiker veel configuratie-en beheeropties biedt.
Het belangrijkste kenmerk van de nieuwe DFS is het intensieve gebruik van algoritmen en tools van neurale netwerken die functies bieden van Big Data en AI (kunstmatige intelligentie), evenals Machine Learning (machine learning) om de meest optimale datamanagementschema ‘ s te organiseren.
Architectuur wordt meestal begrepen als een gesloten (autonoom) ecosysteem dat werknemers van een organisatie toegang biedt tot bedrijfsinformatie, in plaats van een specifiek platform van een specifieke softwarefabrikant.
NetApp hardware
Data Fabric in moderne bedrijven: kenmerken en voordelen
De architectuur van de data factory is ontstaan tegen de achtergrond van het actieve gebruik van interactie tussen grote ondernemingen met grote hoeveelheden informatie onder standaardbeperkingen met betrekking tot managementprocessen.
Moderne Data Fabric stelt u in staat om effectief om te gaan met de belangrijkste taken op het gebied van het opslaan en verwerken van ongelijksoortige informatie. Met behulp van Data Fabric is dergelijke informatie gemakkelijker te zoeken, te verwerken, te structureren en te integreren met andere IT-infrastructuursystemen.
Problemen met betrekking tot informatiebeveiliging zijn uiterst acuut in elke bedrijfsomgeving. In dit opzicht onderscheidt DF zich ook gunstig tegen de achtergrond van alternatieve opties, omdat het u in staat stelt om:
- zorgen voor een betrouwbare bescherming van informatie;
- implementeer informatiebeheer met behulp van standaard open API-interfaces;
- maximale flexibiliteit en fijnafstemming van de toegang tot informatie voor bepaalde categorieën netwerkgebruikers.
De DF-architectuur is gericht op maximale transparantie in de processen van analyse, modernisering, integratie en het veranderen van de gegevensstroom om te voldoen aan de specifieke eisen van de huidige Zakelijke diensten.
Data Fabric-digitalisering van DataOps-processen
Een datafabriek betekent de volgende verplichte reeks kenmerken en processen::
- De stapsgewijze verwerking van inkomende datastromen omvat de verplichte deelname van kunstmatige intelligentie. Het helpt om verwerkingsalgoritmen te optimaliseren, informatie sneller te analyseren en de belangrijkste aspecten te benadrukken.
- Gegevensbronnen, die gebruik maken van de mogelijkheden van moderne grafische interfaces (API ‘ s), ontvangen end-to-end integratie (inclusief Data Lake-databases/datawarehouses).
- Microservice-architecturen worden gebruikt als vervanging voor een enkel blok softwareplatforms.
- De zakelijke IT-omgeving maakt gebruik van het grootste aantal mogelijke cloudoplossingen.
- Informatiestromen worden georkestreerd.
- De kwaliteit van informatie neemt toe na eenwording en virtualisatie.
- Ongeacht het type en het volume van de gegevensbron is deze snel toegankelijk (vanuit databases, datawarehouses, bedrijfsgegevens, enz.).).
- Het bieden van veilige en afgebakende toegang binnen het bedrijf (voor verschillende groepen gebruikers) voor informatieverwerking. Tegelijkertijd is er een flexibele instelling van de rechten van elke werknemer van de organisatie op informatiebronnen voor elke groep klanten op bedrijfsniveau.
De DF-architectuur is speciaal ontworpen voor DataOps-technologie, die eventuele wijzigingen in het datawarehouse registreert. Als gevolg hiervan ontvangt het bedrijf een effectief niveau van prognoses voor de verdere ontwikkeling van bedrijfsplannen.
Het gebruik van kunstmatige intelligentie helpt bij het optimaliseren van gegevensopslag-en verwerkingsdiensten en het verbeteren van de kwaliteit van de dienstverlening voor informatiebronnen en hardware.