-
IP Allowlist機能についてのご質問
Dataiku Cloud版を使用しており、IP Allowlistを拡張機能としてユーザーがDataikuにアクセスするIPを制限しようと思いますが、その際に接続する必要のあるデータベースのIPも設定する必要はありますでしょうか? データベースにはSnowflakeを使用しております。 https://knowledge.dataiku.com/latest/cloud-security/how-to-ip-addresses.html
-
PASHA Holding: Transforming HR Analytics With Dataiku
PASHA Holding redefined HR data analytics and reporting with Dataiku, enabling real-time insights, faster and more efficient reporting, the introduction of predictive analytics, and more. 60x Faster HR report generation 10+ Companies Visibility into employee turnover powered by data integration across said companies 150+…
-
プロジェクトのエクスポートとインポートについて
表題について質問させてください。 別々のDataiku環境でプロジェクトを移行しようとしましたが、Connectionの種類が違うためできませんでした。 別々の環境でプロジェクトをエクスポート、インポートする際はConnectionの種類を完全に一致させなければ、インポートすらできないという理解でよいでしょうか。 Connectionの種類が異なっていてもインポート自体はできて、プロジェクト内のUIでConnectionを編集するといった仕様は現在のところないという理解でよいでしょうか。 具体的な状況としては以下になります。 環境はどちらもDataiku Cloud Stacksです。 Dataiku Cloud Stack…
-
パーティションについて
Dataikuのパーティション機能を利用した際に、ファイルベースの場合はパーティションごとにファイル分割されますが、DBに対してパーティション機能を利用した際は、データの持ち方やインデックスの設定などDB側に変更は加えられるのでしょうか。 また、パーティションを利用する利点として処理対象のレコードをフィルタリングすることで処理の高速化が図れることが挙げられると思いますが、DBをSnowflakeにした場合にはSnowflake側でマイクロパーティションを作成しているため、パーティションは不要という認識ですが正しいでしょうか。 処理の高速化以外のパーティション利用に関するメリットがあればご教示ください。
-
Sumitomo Rubber: Optimizing Manufacturing With Automation & AI
Sumitomo Rubber Industries transformed a core manufacturing process through Dataiku's automation, enhancing efficiency, product quality, and decision-making. Hours Saved with improved efficiency 80% Of product sizes showed enhanced consistency with the AI-optimized process Sumitomo Rubber Industries, Ltd., a prominent…
-
Dataiku CloudStack版における各nodeの自動起動・停止について
表題について質問させてください。クラウドはAWSを想定しています。 Fleet Managerでは自動起動・停止の機能がないため、 AWS側のEventBridge等のスケジューラで制御する必要がある理解です。 ReprovisionのたびにIPが変更される — Dataiku Community そこで、二点確認させて下さい。 - DesignNode等の該当のEC2をAWS側で停止・起動した際に、OS起動とともに正しくプロセスが立ち上がるのかどうか等、各ノードに影響はないでしょうか。 - Fleet Manager側から見て、整合性のとれた状態を維持できますでしょうか。 初歩的な質問で恐縮ですが、お答えいただけますと幸いです。
-
Dataiku アプリケーションデザイナー利用時のプロジェクト運用ベストプラクティスについて
こんにちは。Dataiku のアプリケーションデザイナーを使ったプロジェクト運用について質問させてください。 アプリケーションデザインで作成したアプリは、元となる通常プロジェクトとは別プロジェクトとして作られる認識です。プロジェクトキーを新たに指定する必要があります。 その場合、フローに変更が入ったときには、 元の通常プロジェクト アプリケーションとして公開したプロジェクト の両方を修正する必要が出てくると思います。 この点について、みなさんがどのように運用されているか、ベストプラクティスやおすすめのやり方があれば教えてください。 特に、次の 2 点について知りたいです。 アプリ → 通常プロジェクトへの逆変換は可能か?…
-
Snowflake CortexのClaude Opus 4.5の連携可能時期について
お世話になっております。 Snowflake Cortexで「Claude Opus 4.5」が利用可能になりましたが、 Dataikuとの連携により同モデルが使用できるようになる時期について、ご教示いただけますでしょうか。 また、Dataiku側で新しいモデルとの連携状況が更新された際のアップデート情報などが、どこで確認できるかについても併せてご教示いただけますと幸いです。 よろしくお願いいたします。
-
Automationノードデプロイ時のプロジェクトの閲覧権限について
プロジェクトごとにSecurityから閲覧・編集権限などが設定できるかと思いますが、Designノードで作成したプロジェクトをAutomationノードにデプロイした際に、AutomationノードのプロジェクトもDesignノード側で設定した権限が引き継がれるものなのかご存じの方はいますでしょうか?
-
Cloud Stacksを利用したデプロイにおける必要なIAMポリシーについて
お世話になっております。 現在、Dataikuを社内のAWS環境上にデプロイしようとしています。 まずはFree Editionで試用しつつ、有用性が確認できれば有償版移行も検討しておりまして、 拡張性を鑑み、AMIの利用ではなく、Cloud Stacksでのデプロイを想定しております。 Dataiku Cloud Stacks for AWSのデプロイメントガイドを参照したところ、 前提条件(Prerequisites)に "You need to have administrative access to an existing AWS subscription"と記載がありますが、…
-
出力先の変更に伴う、結合の列選択時に「手動で選択」に設定していた時の挙動について
Designノードでもともと作成していたプロジェクトにカラムを追加した状態で、Automationノードにデプロイ(変更前のプロジェクトはデプロイしていたので、更新)した際に、結合レシピの列選択を手動で選択の箇所で追加したカラムのチェックがはずれてしまうという事象が発生しております。 Snowflakeのデータを使っており、Designノード,Automationノードで出力先のDatabase が異なるのですが、このようなケースの時にチェックが外れない設定方法についてどなたかご存じでしょうか?
-
SQL Query Toolを使用する際のLLMについて
SQL Query Toolを使用して、データセットのレコード数を返すようなエージェントを作成しています。 SQL Query Toolで使用するLLMを「Gemini 2.0 Flash」に設定した場合は問題なくレコード数を返しました。 しかし、Snowflake Cortexの「Claude 3.5 Sonnet」を使用した場合は、SQLクエリを返すのみでSQLクエリはツールの何らかの理由で実行できないと返答されます。 GeminiとClaude 3.5 SonnetどちらもSQL ConnectionとDatasets to queryの設定は同じにしています。 SQL Query Toolを使用する際のLLMには制限などはありますか?
-
Partitionでモデル作成時のEvaluate Storeの作成について
Partitionを行ってモデルを作成した場合、Evaluate Storeが作成することはできないのですが、これは現状での仕様でしょうか? また、Evaluate Storeと同様の結果をPartitionモデル作成時でも出したい場合はPythonレシピを使う必要がありますでしょうか?
-
Dataikuアカデミーに登録されているメールアドレス変更
お世話になっております。 表記の通りメールアドレスについてですが、 現在登録済みのメールアドレスから別ののメールアドレスへ変更は可能でしょうか? また、変更が可能な場合方法をご教授ください お手数をおかけしますがよろしくお願いいたします。
-
webapp上でのDjangoを用いた開発について
お世話になっております。以下の質問がありまして、お答えいただけないでしょうか? ・webapp上で、Djangoを用いて開発を行うことは可能でしょうか。 ・もし可能な場合、推奨される手順や参考となる公式ドキュメント、チュートリアルなどがございましたらご教示いただけないでしょうか。 お忙しいところ大変恐縮ですが、どうぞよろしくお願いいたします。
-
SnowflakeCortexを用いたエージェントの認証形式よる機能の制限について
Snowflakeのコネクション設定において、User/Passwordの形式にしているとSnowflakeCortexの設定画面で以下のようなメッセージが表示されると思います。 The connection 'hoge' is configured with the 'User/Password' authentication method. This is not compatible with the Snowflake Cortex REST API. Models will be queried using SQL, therefore streaming and tools will not be supported.…
-
Jupyter Notebook 上で Dataiku の管理フォルダに書き込みを行う
Dataikuの管理フォルダに Jupyter Notebook 上でファイル書き込みを行おうとしたところ 以下のエラーが発生しました。 DirectoryMissingPermissions: The 'workdir' directory 'file:///XXXX' does not have required permissions (read, write and execute required). Adjust directory permissions or specify a different directory with the necessary permissions. The error is caused…
-
Feature Importanceの表示数制限について
モデル学習後、特徴量重要度を見る際、学習に使った特徴量がFeature Importanceで表示されないことがあるのですが、こちらは表示数など制限があるのでしょうか?また、すべての特徴量の重要度を表示することは可能でしょうか?
-
予測結果と確率を返答する予測エージェントの作り方について
予測エージェントの作り方について2点ご質問です。 ①指定する説明変数の数 十分な説明変数の数の分の条件を指定せずに、予測結果が返ってきました。 全説明変数を指定せず、予測に対する問い合わせができるという事でしょうか? 機械学習レシピにて説明変数は5つあるので、5つそれぞれの値を指定して質問しなければ予測できない認識でした。 ですが、1つの説明変数のみの指定で返答がある状態です。このような使い方で問題なさそうでしょうか? ②モデルが算出した確率を知りたい場合の実装法 スコアリング結果のデータセットにSQL Query toolをつなぎ、予測モデルエージェントへまとめている状態です。…
-
webappsに関する基本的な質問
お世話になっております。 現在webappsでアプリケーションを作成しているのですが、いくつか質問があり投稿させていただきます。 1. web app作成画面で複数ファイルを作成したい場合、どのようにすればよいでしょうか。デフォルトでは添付のような編集画面になっておりまして、html, css, javascript, python、それぞれにつき1ファイルしか作成することが出来ないという状況です。 2. 外部ファイル (例えば、c++で作成した実行可能なバイナリファイルなど) を呼び出したい場合、どこにファイルを配置すればよいでしょうか。また、外部ファイルもまとめてプラグイン化することは可能なのでしょうか。…
-
チュートリアル|ガバナンスサイクルについて、バンドルを拒否した際の挙動について
Govern Nodeを検証のため、以下のリンクのチュートリアルを参考に検証してました。 https://knowledge.dataiku.com/latest/mlops-o16n/govern/lifecycle/tutorial-index.html 以下の箇所について、ワークフローのReviewで最終承認者がRejectedした場合、DesignNode上のバンドルを確認したところ、承認のステータスがRejectedになっておりました。…
-
sql query toolがなぜか機能しないためご相談させてください
添付画像のようにSQLが実行されない状態です。何が問題になっていそうかご意見いただければ幸いです。 ▼データセット内容とメタデータ(Description) ▼SQL Query toolの設定内容 Operating system used: windows10
-
AIエージェントによるデータの可視化について
お世話になっております。 AIエージェント機能におけるデータセットの可視化方法についてご相談させていただきたく存じます。 AIエージェントを活用して一連のデータ分析作業を実行したいと考えておりますが、その中で可視化を行う場合、Agent Toolsのような形で可視化機能は提供されているのでしょうか。 あるいは、可視化用のコードを生成するエージェントを用意し、その結果を表示する形になるのでしょうか。 ご教示いただけますと幸いです。何卒よろしくお願いいたします。
-
レシピ適用後のデータセットに対して、ストレージタイプが変更されるケースについて
お世話になっております。 データセットに対して、何かしらのレシピ(prepareやVisualなど)を適用した場合に、ストレージタイプが変更されてしまう問題について質問がございます。 こちら、レシピを適用した場合に、ストレージタイプを変更しないよう設定する方法などはございますか。 また、以前のストレージタイプを記録しておく方法などあればご教示ください。
-
webappsの挙動について
お世話になっております。 ※テキストベースでの質問とさせてください。 現在、Pluginでwebappsを作成しています。 body.html, app.js, backend.pyで定義してアプリケーションを動かしています。 backend.pyでLangGraphでワークフローを構築し、その中でAIエージェントを呼び出し、処理を行っています。 プロンプトを送信して回答を生成し、結果を返すという仕組みです。 そこで三点質問させてください。 プロンプトを送信したのは、一回にもかかわらず何度もbackend.pyにリクエストが送られています。 これはwebappsの挙動として正しいでしょうか。…
-
Dataikuのチャート機能での軸表記について
お世話になっております。 DataikuのChart機能を使用して可視化を行う際の数値軸や、数値ラベルの単位が、デフォルトで Y(10の24乗)になっているようです。(KMBT表記) 以下のようなデータを入力とし、 Date Val1 val2 2024/1/1 6 22 2024/1/2 99 35 2024/1/3 26 45 2024/1/4 89 35 2024/1/5 46 70 2024/1/6 32 68 2024/1/7 32 53 2024/1/8 52 76 2024/1/9 38 47 2024/1/10 63 99 2024/1/11 30 93 2024/1/12 72 8 2024/1/13 67 62…
-
Chartの数値軸、数値ラベルの表示単位について
お世話になっております。 DataikuのChart機能を使用して可視化を行う際の数値軸や、数値ラベルの単位が、デフォルトで Y(10の24乗)になっているようです。(KMBT表記) GCP上で動作しているCloud Stacks環境を使用していますが、こちら環境依存の設定か、既知のISSUEでしょうか? 表示の修正がかなりストレスなのでデフォルトの数値軸の単位を変更したいと考えています。 設定方法が有ればご教示ください。
-
○○コードのようなString型の整数のカラムがStackレシピで出力されたデータに小数点が付与されてしまう
お世話になっております。 ○○コードのようなString型の整数のカラムがStackレシピで出力されたデータに小数点が付与されてしまう事象が発生しておりますが、原因がわかる方はいますでしょうか? 内容としまして、 Snowflakeのデータを使用 もともとbigintだったが、Dataiku上でデータのExploreのデータ型からStringに変更(Stackする2つのデータを同じ処理) Stackレシピを実行時に、String型で出力されることを確認し、実行 出力されたデータに小数点が表示されてしまう といった状況です。 お手数をおかけしますが、ご存じの方がいましたらご回答いただけますと幸いです。
-
weighting strategyの仕様について
回帰タスクで weighting strategyを使用する際、数値型のカラムを選択すると思いますが、この時選択したカラムの数値の大きさをそのまま重みとしてつかい、相対的にスケールを判断して評価計算を行うのでしょうか?
-
Prologis: Reaching Operational Excellence With Dataiku
Prologis democratized AI with Dataiku, leveraging AutoML features to enable analysts to build and deploy models with no coding knowledge. 12x Increase in productionalized projects 30 Projects and 30 APIs in active use vs. 5 prior to Dataiku 2,000 Users leveraging AI to streamline workflows Prologis’ AI journey began with a…
-
地理データ可視化のAdministrative mapがもつ情報について
chartにおけるAdministrative mapが持つ情報についてご教示いただきたいです。 画像にあるデータセットを用いて、chartからAdministrative map形式でプロットしました。 showはGP(by Metropolis)に設定し、人口をプロットしています。 しかし、画像のように荒川区と江東区だけ表示されませんでした。 江東区も荒川区も情報としては他の区と同じように与えています。 なぜ表示されないかご教示いただけますでしょうか。 他の区はDataiku側で情報を持っているが、荒川区と江東区は情報持っていないと想像していますが、この理解でよいでしょうか。 以下のリンクによるとAdministrative…
-
Oncrawl - Leveraging Dataiku for Predictive SEO as a Product Strategy
Team members: Vincent Terrasi, Product Director Elodie Mondon, Data Engineer Damien Garaud, Data Scientist Country: France Organization: Oncrawl Description: Enterprise SEO platform powered by the industry-leading SEO Crawler and Log Analyzer. Combine the power of technical SEO, machine learning and data science for…
-
Dataikuアカデミーのメールアドレス変更
職場を変える関係で設定しているメールアドレスを会社のものから個人のものへ変更したいのですが可能でしょうか。 また、可能な場合方法についてご教授ください。
-
Visual Agentにおける実行ログであるtraceの取り方について
お世話になっております。 Visual AgentにおいてDataiku社組み込みのToolとCustomToolの両方を使用しています。 Visual Agentはtraceと呼ばれる実行ログで情報管理していると理解しています。 組み込みToolを実行した得られた結果をCustomToolに連携するためにtraceの内容を渡したいと考えています。 しかし、以下のリンクを参考にコードを書きましたがToolの中で想定と異なるtraceが取得されます。 Agentがその時点で持っている情報を記載したtraceをCustom Toolで取得する方法を教えていただきたいです。…
-
FPT Software - Building a CRM Platform to Meet Client Needs for Digital Transformation
Name: Trần Xuân Hiếu, Data Scientist Nguyen Xuan Minh Khoi, Data Engineer Country: Vietnam Organization: FPT Software FPT Software is an international provider of IT services with its headquarters in Vietnam's Hanoi. It belongs to FPT Corporation as a subsidiary (FPT – HoSE). FPT Software, which was founded in 1999, is the…
-
LLM recipe Text Classificationについて
ネガポジ分析でText Classificationを使う際prediction_scoreのカラムも出力されますが、こちらはどこで設定できるのでしょうか? またpredictionに対するスコアになるのでしょうか?
-
python
-
ノートブックでウェジットが表示できない件について
DSS13.5.4を使用しています。 Pythonレしプから表示できるノートブック内で、実行結果を確認しようとしてとあるウェジットを表示しようとしたところ表示されないという問題が発生しています。 外部のノートブック(コード環境は問題が発生しているcodeenvを使用)では表示できますし、たん簡単なウェジット(スライダー)は表示できることを確認しています。 また問題のノートブックで”!jupyter labextension list”コマンドで確認したところ、該当するウェジットは以下のとおり有効となっていると表示されています。 widgets v1.3.0 enabled OK (python)…
-
datauku notebookのメモリ使用について
DSS13.5.4(カスタムインストールの13.3.2からバージョンアップ)を使用しています。 Pythonコードをテストするためにnotebookを使用していたのですが、notebookのメモリ使用量が7.4GByte付近になると処理が停滞(一見フリーズしているように見える)ため、install.iniに以下の設定を行いました。 backend.xmx = 32g (もとは8g) jek.xmx=20g (sン機追加) 上記設定にり20G付近までメモリを使用する処理でも処理が停滞せず動作するようになったのですが、上限をこえるとカーネルが落ちるようになりました。…
-
Dataiku CloudのAudit trailの保持期間について
Dataiku CloudのAudit trailについて保持期間はどのくらいでしょうか?また閲覧可能なのでしょうか?
-
CodeレシピからJupyterを開こうとするとエラー
Dataiku13をカスタムインストールで使用しています。 PythonのコートレシピからNotebookを開こうとすると以下のエラーが発生します。 さいしょは普通に開くことが出ていたはずなのですが、どこかに追加の設定必要でしょうか? gitReferenceの設定がないといわれれいるようなのですが公式ドキュメントでgitReferenceが見つけられませんでした。 -----以下エラーメッセ維持 An internal error occurred Please report this issue to Dataiku DSS Support Technical details follow: Internal error, caused…
-
Dataikuフロー上でのエージェントの連携
Dataikuのフローのなかでエージェント同士の連携はできるのでしょうか? 例えばエージェントAの出力をエージェントBに渡すというような設計をノーコードで行うイメージです。現状ですとコードを書けばできると思っているのですがノーコードでできるのか気になります。 マルチエージェントようなエージェント同士の連携をフローのなかでノーコードで設定できるのでしょうか?
-
Dayananda Sagar University: Transforming Business Education With AI
Dayananda Sagar University partnered with Dataiku to modernize its MBA curriculum, equipping students with practical analytics skills, enhancing employability, and fostering industry collaboration. 100+ Dataiku users Dayananda Sagar University (DSU), located in Bengaluru, India, has been a hub for excellence in management…
-
The Ocean Cleanup: Data Solutions Accelerate Ocean Plastic Removal
The Ocean Cleanup leverages Dataiku to maximize efficiency, collaboration, and operational impact, driving significant progress towards its goal of eliminating 90% of ocean plastics. 5x faster campaign rollout powered by streamlined processes 90% of floating ocean plastic pollution aimed to be cleaned up 5x more…
-
Trumid: Revolutionizing Credit Trading & Real-Time Bond Pricing With AI
Trumid is transforming electronic credit trading with a real-time predictive bond pricing model, designed to enhance accuracy and pricing intelligence for the corporate bond market. 10x Increase in the rate of bond price updates compared to prior Trumid models 81% Of eligible Trumid RFQ line items executed “no touch” in Q4…
-
OHRA: Redefining Insurance & Efficiency With AI
OHRA built a robust, integrated ecosystem within Dataiku that allows them to test, build, and deploy data solutions 6x faster, while always ensuring customers are treated fairly. 2 Months vs. 1 year to deploy models to production with Dataiku (and proper governance!) 100% Increase in automation rates for pet claims…
-
Davivienda: AI for Quality Operations & Financial Inclusivity
Davivienda uses Dataiku to power data and AI projects across the business, from providing product recommendations for low-income clients to collections strategy optimization. $2.6 million in revenue generated with the customer score use case alone 22% decrease in credit card payment defaults 4.23 million more people…
-
Ampol: Transforming Decision-Making & Value Chain Optimization
Ampol has significantly enhanced its operational efficiency by replacing manual processes with centralized, real-time data workflows. 15+ Excel data sources automated 1 Week deployment improvement in model performance and reliability 4 Week sprints delivered significant improvements Ampol Limited, Australia’s leading…
-
Maybank Malaysia: Redefining Customer-Centric Banking
Maybank Malaysia broke down data silos, accelerated personalized customer experiences, and increased efficiency and revenue gains. 1150% Increase in projects supported by feature stores 3x Product uptake among targeted customer segments 10x Reduction in time and effort required for model maintenance In the competitive…
-
Aviva: Powering Insurance With Data, Machine Learning, & AI
Aviva has been using Dataiku for many years to build a range of data analytics and machine learning use cases, ultimately forwarding their “customer first” mission. 50% time saved on data analytics audit work 98% reduction in lead time for data project deployments 75% improvement in time-to-market for data projects, from…
-
ENEOS Materials: Driving Material Innovation With Predictive Modeling
ENEOS Materials revolutionized their tire material formulation process with ML by reducing proposal timelines and improving operational efficiency. Months to days to create customer proposals ENEOS Materials is a global leader in the research, development, and manufacturing of rubber and elastomers. In their tire materials…
-
Rolls-Royce Aerospace: Boosting Operational Efficiency With Dataiku & Deloitte
Rolls-Royce, in partnership with Deloitte, leverages Dataiku to solve data science problems, empower citizen data scientists, and drive innovation by automating processes and delivering real-time insights. Just Minutes for processing time with PCB Line Optimizer vs. weeks prior to Dataiku As a widely-recognized leader in…
-
Nanyang Technological University, Singapore: Supporting At-Risk Students With AI
Nanyang Technological University, Singapore leverages ML to predict at-risk students, enabling timely interventions that enhance student success and retention. >70% Accuracy in identifying at-risk students Nanyang Technological University, Singapore (NTU Singapore), one of Singapore’s premier educational institutions, is…
-
Morgan Hill: Innovating Post-Disaster Claim Processing
Morgan Hill teamed up with Dataiku to optimize post-catastrophe insurance processes, reducing costs and increasing efficiency. Days to Hours to complete the claims evaluation process The specialists at Morgan Hill rely on their extensive experience, bespoke solutions, and personalized approach to provide their clients with…
-
Code Agentでのツール呼び出しについて
Code Agent構築の際にツールの設定は以下のように認識しています @ tool def add(a: int, b: int) -> int: """Adds a and b.""" return a + b @ tool def multiply(a: int, b: int) -> int: """Multiplies a and b.""" return a * b tools = [add, multiply] このときdataset_lookupのようなAgent toolで設定したツールを呼び出すこと可能でしょうか?
-
Visual AgentのNotebook上での呼び出しについて
フロー上で作成したVisual AgentをNotebook上でpythonで呼び出して処理の結果をnotebook上で出力させることは可能でしょうか? 例えば、dataset lookupのツールを使えるエージェントを構築し、notebookで作成したエージェントにクエリを渡し結果を出力するというイメージです。
-
I just gained the Certificate,but I want change my name to put it in linkedin, to be Munira Yousef A
but I want change my name to put it in linkedin, to be Munira Yousef Almogren
-
Python レシピでの「RELOAD SCHEMA FROM TABLE」相当のスキーマの再作成について
「RELOAD SCHEMA FROM TABLE」で行われている操作を、Python レシピで実現する方法を模索しています。以下に、具体的な要件を説明します。 Python レシピの Output 先として PostgreSQL 上のテーブルを指定し、以下の動作を実現したいと考えています。 ・Python レシピ内のコードでは、データの書き込みは実施しない。 ・その代わり、Python レシピ内のコードからリモート実行するスクリプトが、Output先として指定されているテーブルをDB上に作成し、値を書き込む。 この場合、Flow 上で Output 先となっているデータセットを参照すると「Invalid…
-
code env (Jupyter サポート)におけるライブラリ制約について
code env で Jupyterサポートの有効化を行うと、それに従っていくつかのライブラリがバージョン制約付きでインストールされます。 そのうちの1つに、traitlets==5.9.0という制約がありますが、これがCode env環境にセットアップ使用しているPPの制約と競合してしまっています(PP側の制約はtraitlets >=5.14.2) Jupyterは使いたいのですが、この制約を回避する方法はあるでしょうか?(dataiku側の方のバージョンが古いのでバージョンアップ待ちでしょうか)
-
Dataiku Python code env(Managed)への分析PPのインストールについて。
あるPythonの分析PPをまっさらなManaedなCodeEnv(python)にインストールしようとしたところ、以下のような依存ライブラリの要求バージョン不一致のエラーが発生しました。 dataikuではpandasの2.2~2.3に依存していんすとーるしているのに、該当PPはそれ余地古い1.3.5~2.0が要求されているようです。PP側にも荒らしいバージョンに対応できないか確認は致しますが、dataiku側の依存ライブラリを古いものに変更するようなことはできるないものでしょうか? ===== The conflict is caused by: The user requested pandas<2.3 and >=2.2…
-
Dataiku CloudのSpaceを削除したい
Dataiku Cloudで、不要になったSpaceを削除しようと思いLauchpadを一通り確認したのですが、それらしきものが見当たらず。 Spaceの削除はどのようにおこなえばよいのでしょうか。 Operating system used: Cloud
-
Call another LLM or Agent とAgentのプロンプトのすみ分けについて。
Call another LLM or AgentでSystem prompt でプロンプトを用いてLLMに対し、どのようにふるまうのか設定することができると認識しています。 一方でAgentの設定ではLLMを選択しAdditional promptでモデルのふるまいを設定することができるかと思います。 これらのすみ分けとはどのように考えたらいいのでしょうか? 例えば、system promptでLLMのふるまいや役割を与え、Additional promptでエージェントの出す解答の形式などを設定する(json形式で回答させるなど)イメージです。
-
出力データセット名の動的な変更について
現在Pythonレシピを用いて出力するデータセット名に出力日時を加えたいと考えています。 Pythonレシピで出力データセット名に付けたいデータセット名を指定したところ、 <class 'Exception'>: Dataset "データセット名" cannot be used : declare it as input or output of your recipe というエラーが出ます。 Pythonレシピの入出力で設定したデータセット名のみが利用できないという旨ではあると思うのですが、どうにかして出力データセット名を動的に変更することはできないでしょうか。
-
PromptStadioとNotebookクエリーの場合の回答生成フローの差異について
お世話になっております。 Dataiku13.4.0のドキュメント埋め込み機能について質問がございます。 ドキュメントの埋め込み機能を用いてベクトルストアを生成したのですが、こちらを用いてPromptStadioとノートブック上でクエリを実行した場合、回答の内容が大きく異なってしまいました。PromptStadio側でバックエンド側で行っている処理とノートブック側で行っている処理の差異についてお聞きしたいのですが、ご教授いただくことは可能でしょうか?ノートブックについては以下のリンクのコードを参照しております。(Temperatureやmax_tokensのパラメータを一通り確認したのですが、特に差異は見当たらずです…)…
-
Snowpark上でのDataiku環境構築
現在Snowpark上で動作する分析ツールとの連携をかんがえております。 Snowpark上にDataiku環境を構築することは可能なのでしょうか? 別途構築したDataiku環境からSnowparkへの連携についてはドキュメントや記事等みかけたのですが、Snowpark上に環境構築する方法や事例などはざっと見た感じ見受けられませんでした。 構築の可否と、可能であれば制約事項等含む手順をお教えいただきたいと思います。
-
Dataiku上での画像処理について
Dataiku上での画像処理についていくつか質問があります。 1.画像フォルダにある画像ファイル名の変更の仕方 画像フォルダにある画像ファイル名を任意の条件、例えばok.pngで始まる画像ファイル名以外のものをng.pngにファイル名を一括で変換するにはpython recipeで実装するしかないのでしょうか。また、その時読み込むフォルダとファイルのパスはどこを参照すればいいでしょうか 2.前処理に関して 一般的に画像処理で行うようなリサイズやマスク化などはdataiku上でノーコードでできるのでしょうか? 3.モデルの追加…
-
AMLのユーザごとの学習モデルについて
AMLの不正取引検知を行うフローを検討しております。複数ユーザーのアクション履歴を元にした学習モデルではなく、顧客個別のデータを学習に利用して顧客ごとの不正を検知するようなユースケースはございますでしょうか。
-
Seller 資格取得方法について
https://academy.dataiku.com/page/partners 上記のサイトを確認したところ、サイト内容の更新中のようですが、現在はSellerの資格取得はできないのでしょうか。
-
Dataiku cloudでSparkを使う方法について
GCP環境で立ち上げたDataiku cloudでsparkを使おうとするとエラーが出てしまいます。 ドキュメントにはDataiku cloudではデフォルトでSparkが使えると書いてあるのですがPysparkレシピを実行すると画像のようなエラーが出ます。何か設定をする必要があるのでしょうか。 (globalのほうで質問をしてしまったのですが日本コミュニティのほうに再度質問させていただきます。失礼しました。) Operating system used: Windows11
-
【Keywalker】Dataiku体験会開催のお知らせ
【オンライン開催】 2月18日(火)18:00~20:00 ECサイトのデータを使ったレビュー分析をハンズオン形式で実施します!! レビュー分析に興味がある方必見! Dataikuを使ったレビュー分析を実際に操作しながら学ぶことができます。 初心者の方でも安心して参加できる内容になっていますので、 Dataikuを始めたばかりの方や、レビュー分析に興味があるけれどまだやったことがない方もご気軽にご参加ください! 詳細はこちら https://techplay.jp/event/967449
-
【Data Haiker】LLMハンズオン用データ(ホテルレビュー)
2025年2月13日開催の「Dataiku LLMハンズオン体験会」のデータは、本ページ下部からダウンロードしてください。 LLMハンズオン.zipファイルの中身として、「Hotel_review.csv」と「プロンプトテキスト.txt」を格納しております。 利用データとしてHotel_review.csv、ハンズオン内で利用するプロンプトのコピペ用にプロンプトテキスト.txtを用意しておりますので、それぞれお手元にダウンロードしてご利用下さいませ。…
-
Zeus: Modernizing Manufacturing With Dataiku Cloud
From improving yield to inventory optimization, Zeus is on a mission to drive business value with advanced analytics, while ensuring speed and efficiency. ~2 weeks To get models into production, vs. 16-20 weeks before Dataiku Millions Of rows of manufacturing data generated per day 15-30 Minutes between inventory models…
-
Frende Forsikring: Boosting Customer Trust With Generative AI
Frende Forsikring uses Dataiku to streamline operations, improve customer experience, and solidify its reputation as an advanced insurer in a competitive market. $100K Saved by automating competitor intelligence with Dataiku 110 Hour of work saved per month with LLM-driven insurance cancellations Norwegian insurance…
-
Akamai: Transforming Data Discovery With LLMs
With Dataiku, Akamai built a locally hosted LLM-powered chatbot, serving as a comprehensive tool for effortless data exploration tailored to all users. $37.5K In savings by automating dataset descriptions $150K In savings by streamlining the data discovery process 6K+ Hours saved by streamlining the data discovery process…
-
Clayco: Revolutionizing Cash Flow Forecasting
Clayco streamlined cash flow forecasting (improving speed and accuracy) by moving from spreadsheet-based to ML-based predictions. 4x Increase in frequency of cash flow forecasts 76% Reduction in forecast production time <4 Months to build a working production model Clayco specializes in the art and science of building,…
-
Airline Pilot Club: Transforming Pilot Training With AI
Airline Pilot Club leveraged Dataiku to revolutionize pilot training with personalized, efficient, and compliant solutions. 12.5% Reduction in administrative time with Amelia.2 in Dataiku 22.5% Increase in operational efficiency with Amelia.2 in Dataiku 25% Improvement in recruitment accuracy with Amelia.2 in Dataiku With…
-
ALMA: Streamlining Astronomical Operations With Analytics and AI
ALMA leverages Dataiku to automate data monitoring, streamline proposal reviews, and optimize telescope operations, saving hundreds of hours and enhancing astronomical research. 50-120 Hours Saved of Astronomers on Duty (AoD) and expert staff time by reducing manual assessments Weekly Monitoring of observational data…
-
AuroraDBからのデータ取得における過去データの累積と重複排除の方法について
AuroraDBからデータセットを取得していますが、そのテーブルには直近4か月分のデータのみ含まれています。 しかし、データ分析を行う際に、4か月以上過去データも必要となり、対象テーブルからのデータセットを取得するたびに、別のデータセットとして累積する必要があります。 また、その際、同時に重複を排除する必要があります。 フロー上で上記の要件を満たすような方法がございましたら、教えていただけますと幸いです。
-
Novo Nordisk: Using Generative AI to Drive Enterprise-Wide Efficiency
From predictive insights for scientific exchange to generative AI-driven chatbots for scientific research and incentive compensation support, Novo Nordisk is improving outcomes with analytics and AI. Global healthcare company Novo Nordisk leverages generative AI features and capabilities in Dataiku to create predictive…
-
Travis Perkins plc: Using Data Science to Improve Employee Safety
With Dataiku, Travis Perkins plc applied a data-driven approach to enhance safety in their branches by proactively uncovering health and safety risks. 10x Faster data transformation and modeling with Dataiku 800% Improvement in data onboarding efficiency In the bustling world of construction, where heavy materials and…
-
John Lewis Partnership: Ensuring MLOps at Scale With Deloitte & Dataiku
Dataiku and Deloitte transformed JLP's AI landscape, enabling them to operationalize their AI initiatives, streamline processes, and generate substantial financial benefits. 12 AI models operationalized successfully 1-2 Weeks for model iteration vs. 10-12 weeks prior to Dataiku 5 Weeks to deploy models to production vs.…
-
Western Digital: Smarter Email Categorization and Quality Control
Western Digital leverages Dataiku’s NLP and MLOps capabilities to automate email categorization and wafer testing in manufacturing, saving 100 hours monthly and improving product quality. 10,000 Emails per week auto extracted, analyzed, & labeled 80%+ Accuracy in email categorization 17% Reduction in email traffic thanks…
-
Security Bank Corporation: Enhancing Bank Operations With AI
Security Bank Corporation leverages Dataiku to optimize liquidity risk management, accelerate model deployment, and boost operational efficiency. 92% Decrease in the number of models needed for liquidity risk management (from 12 to one) 75% Reduction in manual data preparation and ECL calculation times 75% Reduction in the…
-
Zayo: Driving Operational Efficiency With Analytics & AI
Zayo’s data science team is focused on use cases that deliver cost benefits to the company and enable the business to achieve their operational metrics. Only Weeks To build & deploy a churn model (vs. 14 months!) Millions Saved In months with the churn prediction and revenue assurance models in Dataiku From fiber and…
-
Johnson & Johnson: Transforming Vision Care With Generative AI
Johnson & Johnson’s Vision team partnered with Dataiku for a generative AI training and hackathon, which led to working prototypes in less than two days. 80+ Johnson & Johnson employees use Dataiku <2 Days to build working generative AI and LLM prototypes with Dataiku Johnson & Johnson’s Vision team wants to reimagine the…
-
FLOA: Transforming Payment Solutions for Compliance and Efficiency
Leveraging Dataiku, FLOA transformed payment solutions with AI to boost compliance, streamline operations, and elevate customer and employee satisfaction. 50 Million risk score calls handled annually 25% Increase in data scientist productivity 0.05% Error rate in risk assessments with <150 millisecond response time FLOA is…
-
Convex: Data Democratization at Scale With Dataiku & Snowflake
Convex has embedded data scientists and data engineers into business functions throughout the company, notably the actuarial team, to improve underwriting performance and make better decisions with data. Only hours To run the actuarial reserving report with refreshed data (vs. days previously) 1 Week (Vs. 5 months with…
-
myAgro: Scaling Farmer Support Through Real-Time Insights
With Dataiku, myAgro boosted sales by 75% with advanced client targeting, supported 900,000+ farmer participations in training, and streamlined data for real-time decisions. 75% Sales growth among the most active vendor segments through client targeting 900K+ Farmer participations in climate-smart training, made possible…
-
Novartis: Streamlining Analytics & AI Across the Organization
Novartis moved from manual spreadsheet calculations to informed decision-making with Dataiku and harnessed the Dataiku LLM Mesh to revolutionize healthcare market research. 90% Reduction in time to insights in GenAI use case 600% Acceleration in data ingestion time in spreadsheet use case In the fast-paced world of…
-
Roche: Boosting Case Law Analysis With Generative AI
Roche harnesses Generative AI and the Dataiku LLM Mesh to automate case law analysis, boosting efficiency and reducing resource costs. Hours Saved in attorney hours per court proceeding Increased Quality in insights to enhance case law analysis completeness European patents in the pharmaceutical sector often lead to…
-
Perdue Farms: From Data Chaos to Clarity With Dataiku
Perdue Farms transformed its operational efficiency and decision making by automating USDA data collection and reporting with Dataiku. Only Hours To complete data analysis vs. days prior to using Dataiku 6+ Hours Saved monthly with Dataiku Perdue Farms, a leading U.S. food and agricultural company, faced significant…
-
BCLC: Optimizing Media Spend and Driving Marketing ROI
BCLC transformed its marketing strategy by developing in-house Marketing Mix Models, saving costs, optimizing media spend and more. $1 Million saved in consulting fees 40x Higher returns on ad spend Thousands saved removing external vendors and automating the MMM process for more timely refreshes The British Columbia…
-
ReprovisionのたびにIPが変更される
Dataiku Cloud Stacks for AWSを用いてAWS上にFleetManagerとDSSを構築しています。 DesignNodeの構成を変更する(例えば、Nodeのサイズを変更するなど)設定を行った後に REPROVISIONを行うと紐づけられたIPが変更されてしまいます。 PrivateIPは固定する設定があるのですが、PublicIPは変更されてしまいます。 このPublicIPが変更されてしまわないような設定は可能でしょうか? また、別の質問になってしまいますがDSSを営業時間以外は停止したいのですが、自動化できる設定はFleetManager側にありますか?
-
DataikuとTableau Serverの連携について
DataikuのTableau Hyper formatを用いて可視化用のデータセットをDataikuで整形し、Tableau Serverへアップロードすることを検討しており、ご質問です。 DataikuからTableau Serverへのデータ連携の選択肢として ・Tableau Hyper formatプラグインを用いての接続 ・DataikuからSnowflakeに出力したものにTableauから接続 の2通りの選択肢が取れる認識でおります。 それぞれメリット、デメリットが有ると思いますが、速度の観点でどちらが高速か知見をお持ちの方いらっしゃいますでしょうか? また、考えられるリスクなどございますでしょうか?…
-
ローカルデータのインポート制限
プロジェクトにローカルデータをアップロードする際に「ファイルをアップロード」を選択するかと思いますが、アップロードできなくする制限をかけることはできますでしょうか? また上記が可能な場合について、Snowflake等のデータベースからはデータを接続できるように設定できますでしょうか?(事前にConnectionを設定しています。)
-
Vector Storeの違いによるDataiku Answersの回答生成不具合
Dataiku Cloud バージョン13.3.1で埋め込みを行う場合、FAISSを使用したKnowledge bankだと回答が生成されず、ChromaDBに変更すると生成されるようになります。これらの事象の解決策などありますでしょうか? ログを見てみるとpermission deniedとあるので何かしら権限がない状況になっているのかと思いますが、原因が分かりません
-
LLM Mesh機能を利用して、全体に対する要約を実施したい。
例えばX(Twitter)のデータで、それぞれの投稿(1つぶやき)を要約することはSummarizeレシピでできると思いますが、とある日の全関連投稿(Ex. Dataiku)に関する投稿の要約を行いたい場合、どのように実施できますか? Ex. 投稿内容:Dataiku 投稿日:今日(12/25) → つまり、12/25に世界中でDataikuについて投稿があったものを要約(傾向を把握)したい。
-
Dataiku AnswersのDocument Folderについて
Dataiku AnswersではDocument Folderを設定しないと動かないのですが、この設定を有効にしておく理由は何かあるのでしょうか。画像生成を行うのであればフォルダは用意しておく必要はありそうな気がするのですが、ただのチャットボットの機能を使うだけであれば必要なのかなと思っています。ドキュメントを見てもよくわからないので質問してみました https://doc.dataiku.com/dss/latest/generative-ai/answers.html#document-folder
-
Automation Nodeへのデプロイ権限について
Dataiku Cloud版でLaunchpad上で以下の権限を割り当てておりますが、Deployer→AutomationNodeへのデプロイがうまく実行できません。(Bundle→Deployerは可能) ・designers ・external_designer ・project_deplyer 権限を割り当てられるように設定することはできますか?また、AutomationNode側で設定が必要になりますか?
-
Dataikuからローカルにデータフレームを読み込む際のpandasのエラーについて
以下のリンクをもとに環境からdataikuライブラリをpip installし、ローカルのJupiter Labを用いてデータフレームを読み込んでいます。…