Databricks
Données
Neotask rend votre lakehouse Databricks conversationnel — OpenClaw interroge Unity Catalog, exécute du SQL et orchestre les workflows de données pour que vos analystes obtiennent des réponses sans écrire de notebooks.
- Interrogez vos données lakehouse en français courant au lieu d'écrire du SQL ou du code Spark manuellement
- Gérez les actifs Unity Catalog, les index de recherche vectorielle et les fonctions personnalisées par conversation
- Automatisez l'exploration de données, la génération de rapports et la surveillance de pipelines dans votre workspace Databricks
Ce que vous pouvez faire
Exécuter des requêtes SQL sur votre lakehouse
Demandez à Neotask d'interroger une table Unity Catalog, d'agréger des données d'un dataset Delta Lake, ou de joindre plusieurs tables dans votre SQL warehouse Databricks. OpenClaw traduit votre question en SQL et retourne les résultats.
Gérer les clusters et le calcul
Demandez à Neotask de démarrer un cluster, de vérifier quels clusters sont actuellement en cours d'exécution, d'arrêter le calcul inactif ou d'obtenir le coût du calcul utilisé au cours des 30 derniers jours.
Exécuter et surveiller les jobs
Demandez à Neotask de déclencher un job Databricks, de vérifier le statut d'un job en cours d'exécution, ou d'obtenir la sortie et les journaux d'un job ayant échoué.
Explorer les schémas et tables
Demandez à Neotask de lister tous les catalogues, schémas et tables dans votre Unity Catalog, de décrire le schéma d'une table spécifique, ou d'afficher des données d'exemple d'un dataset.
Gérer les notebooks et workspaces
Demandez à Neotask de lister les notebooks dans un répertoire de workspace, de récupérer le contenu d'un notebook, ou d'obtenir l'historique d'exécution d'un notebook spécifique.
Essayez de demander
« Montre-moi les 100 dernières lignes de la table \'sales.transactions\' où le montant dépasse 1000€ »
« Quels clusters sont actuellement en cours d'exécution dans mon workspace Databricks ? »
« Lance le job \'daily-etl\' et notifie-moi quand il se termine »
« Le job \'data-pipeline\' a échoué la nuit dernière — donne-moi les journaux d'erreur »
« Liste toutes les tables du schéma \'analytics\' avec leurs nombres de lignes »Conseils d'expert
SQL warehouse vs cluster — pour les requêtes SQL interactives, utilisez un SQL warehouse ; pour les workloads notebook et Spark, utilisez un cluster polyvalent. Ciblez le bon type de calcul pour votre requête.
Cache Delta — si les requêtes répétées sur la même table sont lentes, vérifiez si le cache Delta est activé sur votre cluster ; les tables en cache répondent considérablement plus vite.
Photon pour les grandes requêtes — activez l'accélération Photon sur votre SQL warehouse pour les workloads analytiques sur de grands datasets ; cela réduit significativement le temps de requête.
Permissions Unity Catalog — lorsqu'une requête échoue avec une erreur de permissions, vérifiez vos autorisations Unity Catalog pour ce catalogue ou schéma avant de modifier la requête.
Chaque action s'exécute de manière autonome ou nécessite votre approbation — c'est vous qui décidez.
Works Well With
- google-contacts - Automate databricks google contacts automation with Neotask. Sync contact data pipelines, streamline your data lakehouse...
- smartsheet - Connect Context7 and Google Classroom with Neotask to deliver accurate, version-specific documentation directly into cou...
- snowflake - Connect Databricks ML pipelines and Spark workloads directly to Snowflake's data warehouse. Neotask bridges your lakehou...
- supabase - Connect Databricks and Supabase to sync your data lakehouse with Postgres. Automate analytics pipelines and eliminate ma...