일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- OPCUA
- ubuntu
- DSL
- configure
- 7.7.1
- json
- filebeat
- path.data
- Data Engineering
- framework
- PYTHON
- elastic
- grok
- package.json
- venv
- kibana
- ELK
- Crontab
- KoA
- node.js
- typescript
- CSV
- query
- Tutorial
- devtools
- elasticsearch
- dense_vector
- airflow
- logstash
- windows
- Today
- Total
목록airflow (2)
Gibbs Kim's playground
Python script를 통해 DAGs를 등록하는 예제(LINK)를 수행하다가 python 내부에서 class로 구조를 구성하면 어떨까 테스트 해보았다. #yolo_inference example from https://da2so.tistory.com/40from datetime import datetimefrom pathlib import Pathfrom airflow import DAGfrom airflow.operators.python import PythonOperatorfrom airflow.operators.bash import BashOperatorclass DAGinstance: def __init__(self, args) -> None: self.dag_id = arg..

Airflow 설치 및 실행에 대한 테스트 내역을 기록함# Test Environment## OS: Windows 11 pro## VM: WSL2** Airflow는 Windows에서 정상적인 실행이 불가능하다. 반드시 Linux나 MacOS에서 실행하자1) Airflow 설치$ pip install apache-airflow## If you want to install specific version, try like below$ pip install apache-airflow==2.9.1 2) Database 초기화$ airflow db init기본으로 설정되는 DB는 sqlite이다. 3) DB 변경 (Sqlite to postgreSQL)# Move to directory of configure f..