일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- ELK
- node.js
- kibana
- windows
- logstash
- path.data
- framework
- Tutorial
- package.json
- CSV
- devtools
- airflow
- json
- configure
- grok
- Data Engineering
- DSL
- 7.7.1
- elastic
- OPCUA
- elasticsearch
- dense_vector
- PYTHON
- KoA
- venv
- filebeat
- ubuntu
- Crontab
- typescript
- query
- Today
- Total
목록Tech 기록지 (43)
Gibbs Kim's playground
[KR ver | ENG ver] 1. Filebeat을 설치하기 전에 Elasticsearch와 Kibana를 설치한다. 1. You have to install Elasticsearch and Kibana before setup Filebeat. 2. Filebeaat을 설치 및 설정하기 전에 Elasticsearch와 Kibana를 실행한다. 2. Run Elasticsearch and Kibana before setup and setting Filebeat. 3. Elasticsearch 실행 예시 3. Example of run Elasticsearch > ELK>elasticsearch7.6.2>bin>elasticsearch 4. Kibana 실행 예시 4. Example of run Kib..
ELK 5.x ~ 6.x 기준으로 작성된 내용이다.(It is based on 5.x ~ 6.x versions of ELK) {"template" : "sample","mappings" :{"logs":{"properties":{"location":{"type" : "geo_point"}}}}}
Logstash는 raw data를 Elasticsearch로 업로드하는 기능을 수행한다.기본 구조는 다음과 같다.(input, filter, output) # Context is written in configure file (ex: test.conf)input { file { path => "FILE_PATH" # can use asterisk (*) beside file name; e.g. test_1234.csv, test_23456.csv -> test_*.csv start_position => "beginning" sincedb_path => "/dev/null" }}filter { csv { separator => "," ..