当前位置: 代码网 > 服务器>服务器>云虚拟主机 > 使用Docker快速搭建Airflow+MySQL详细步骤

使用Docker快速搭建Airflow+MySQL详细步骤

2024年10月28日 云虚拟主机 我要评论
为了使用 docker 安装 apache airflow 2.9.3 并配置 mysql 数据库并确保数据持久化,我们可以使用 docker compose。以下是详细步骤:步骤 1:创建项目目录在

为了使用 docker 安装 apache airflow 2.9.3 并配置 mysql 数据库并确保数据持久化,我们可以使用 docker compose。以下是详细步骤:

步骤 1:创建项目目录

在你的工作目录中创建一个新目录来存放所有相关的配置文件和脚本。

mkdir airflow-mysql
cd airflow-mysql

步骤 2:创建 docker-compose.yml 文件

在项目目录中创建一个名为 docker-compose.yml 的文件,内容如下:

version: '3.7'
services:
  mysql:
    image: mysql:8.0.27
    environment:
      mysql_root_password: rootpassword
      mysql_database: airflow
      mysql_user: airflow
      mysql_password: airflowpassword
      mysql_charset: utf8mb4
      mysql_collation: utf8mb4_general_ci
    ports:
      - "3306:3306"
    volumes:
      - mysql_data:/var/lib/mysql
  airflow-webserver:
    image: apache/airflow:2.9.3
    environment:
      airflow__core__executor: localexecutor
      airflow__core__sql_alchemy_conn: mysql+mysqldb://airflow:airflowpassword@mysql:3306/airflow
      airflow__core__fernet_key: 'your_fernet_key'
      airflow__core__load_examples: 'false'
      airflow__webserver__rbac: 'true'
    depends_on:
      - mysql
    ports:
      - "8080:8080"
    volumes:
      - ./dags:/opt/airflow/dags
      - ./logs:/opt/airflow/logs
      - ./plugins:/opt/airflow/plugins
    command: ["bash", "-c", "airflow db init && airflow users create -r admin -u admin -p admin -e admin@example.com -f admin -l user && airflow webserver"]
  airflow-scheduler:
    image: apache/airflow:2.9.3
    environment:
      airflow__core__executor: localexecutor
      airflow__core__sql_alchemy_conn: mysql+mysqldb://airflow:airflowpassword@mysql:3306/airflow
      airflow__core__fernet_key: 'your_fernet_key'
      airflow__core__load_examples: 'false'
      airflow__webserver__rbac: 'true'
    depends_on:
      - mysql
    volumes:
      - ./dags:/opt/airflow/dags
      - ./logs:/opt/airflow/logs
      - ./plugins:/opt/airflow/plugins
    command: ["bash", "-c", "airflow scheduler"]
volumes:
  mysql_data:

请注意,your_fernet_key 需要替换为一个实际的 fernet 密钥,可以通过以下命令生成:

python -c "from cryptography.fernet import fernet; print(fernet.generate_key().decode())"

步骤 3:创建目录结构

为 airflow 的 dags、日志和插件创建目录:

mkdir -p dags logs plugins
chmod -r 777 dags logs plugins

步骤 4:启动 docker compose

在项目目录中运行以下命令来启动所有服务:

docker-compose up -d

步骤 5:检查服务状态

你可以使用以下命令查看正在运行的容器:

docker-compose ps

步骤 6:访问 airflow web ui

打开浏览器并访问 http://localhost:8080,你应该能够看到 airflow 的登录页面。使用以下默认凭据登录:

  • 用户名:admin
  • 密码:admin

解释

服务定义

  • mysql: 使用 mysql 8.0.27 镜像,设置数据库名称、用户和密码,并将数据持久化到 mysql_data 卷中。
  • airflow-webserver: 使用 airflow 2.9.3 镜像,配置连接 mysql 的连接字符串,初始化数据库并创建管理员用户,然后启动 airflow webserver。
  • airflow-scheduler: 使用 airflow 2.9.3 镜像,配置连接 mysql 的连接字符串,并启动 airflow scheduler。

数据持久化

  • mysql 数据通过 docker 卷 mysql_data 持久化。
  • airflow 的 dags、日志和插件通过绑定挂载到主机的目录 ./dags./logs./plugins

其他配置

环境变量说明

  • airflow__core__executor: localexecutor 表示使用本地执行器。
  • airflow__core__sql_alchemy_conn: 设置 airflow 连接 mysql 的连接字符串。格式为 mysql+mysqldb://<username>:<password>@<host>:<port>/<database>
  • airflow__core__fernet_key: 用于加密连接密码的密钥。可以通过 python -c "from cryptography.fernet import fernet; print(fernet.generate_key().decode())" 生成这个密钥。
  • airflow__core__load_examples: 设置为 false 表示不加载示例 dags,以保持环境干净。
  • airflow__webserver__rbac: 启用基于角色的访问控制。

docker compose 配置说明

  • depends_on: 确保 mysql 服务在 airflow 服务之前启动。
  • volumes: 用于持久化数据和共享文件。mysql 数据存储在 mysql_data 卷中;airflow 的 dags、日志和插件分别绑定挂载到主机的 ./dags./logs./plugins 目录。
  • command: 定义容器启动时要运行的命令。对于 airflow-webserver 服务,首先初始化数据库并创建管理员用户,然后启动 airflow webserver。对于 airflow-scheduler 服务,启动 airflow scheduler。

确保持久化

持久化数据是确保服务重启后数据不会丢失的关键。我们使用 docker 卷来持久化 mysql 数据,并使用绑定挂载来持久化 airflow 的 dags、日志和插件。

启动和管理容器

启动容器

docker-compose up -d

查看容器状态

docker-compose ps

查看日志

docker-compose logs -f

停止和删除容器

docker-compose down

进一步配置和优化

安全性

更改默认密码
默认的管理员密码为 admin,建议在第一次登录后立即更改密码。

使用环境变量保护敏感信息
避免将敏感信息直接写入 docker-compose.yml 文件,可以使用 docker secrets 或环境变量来保护敏感信息。

资源限制

根据你的硬件资源,可以在 docker-compose.yml 中为容器设置资源限制:

airflow-webserver:
  ...
  deploy:
    resources:
      limits:
        cpus: '0.50'
        memory: '512m'
  ...

日志管理

确保日志文件不会无限制地增长,可以在 docker-compose.yml 中配置日志选项:

airflow-webserver:
  ...
  logging:
    driver: "json-file"
    options:
      max-size: "10m"
      max-file: "3"
  ...

备份和恢复

定期备份 mysql 数据库和 airflow 配置,以防止数据丢失。你可以使用 cron jobs 或其他备份工具来实现这一点。

扩展性

如果需要扩展到多个节点,可以考虑使用 celeryexecutor 或 kubernetesexecutor。celeryexecutor 需要额外的配置和 redis/rabbitmq 作为消息队列。

示例 dag 创建

dags 目录中创建一个简单的示例 dag 文件,例如 example_dag.py

from airflow import dag
from airflow.operators.bash import bashoperator
from datetime import datetime, timedelta
default_args = {
    'owner': 'airflow',
    'depends_on_past': false,
    'email_on_failure': false,
    'email_on_retry': false,
    'retries': 1,
    'retry_delay': timedelta(minutes=5),
}
with dag(
    'example_dag',
    default_args=default_args,
    description='a simple example dag',
    schedule_interval=timedelta(days=1),
    start_date=datetime(2023, 1, 1),
    catchup=false,
) as dag:
    t1 = bashoperator(
        task_id='print_date',
        bash_command='date',
    )
    t2 = bashoperator(
        task_id='sleep',
        bash_command='sleep 5',
    )
    t1 >> t2

这将创建一个简单的 dag,包含两个任务:打印当前日期和等待 5 秒。

监控和日志

airflow 提供了丰富的监控和日志功能,可以帮助你跟踪任务的执行状态和性能。

airflow web ui
通过 web ui 查看 dag 和任务的状态、日志和图形化表示。

日志文件
查看容器内的日志文件,了解更多详细信息。

docker-compose logs airflow-webserver
docker-compose logs airflow-scheduler

更新和升级

定期更新 airflow 和相关依赖项,以确保获得最新的功能和安全补丁。

更新 docker 镜像

docker pull apache/airflow:2.9.3
docker-compose up -d

更新 mysql 镜像

docker pull mysql:8.0.27
docker-compose up -d

结论

通过这些步骤,你可以成功地使用 docker 和 mysql 部署和配置 apache airflow 2.9.3

验证 docker 容器是否成功启动,可以使用一系列命令来检查容器的状态和日志。以下是一些常用的命令和步骤:

1. 检查容器状态

使用 docker ps 命令查看正在运行的容器:

docker ps

这个命令会列出所有正在运行的容器,包括它们的容器 id、名称、状态等。

如果要查看所有容器(包括停止的),可以使用 -a 选项:

docker ps -a

2. 查看容器日志

查看特定容器的日志可以帮助你了解容器是否正常启动,并排除潜在的错误。使用 docker logs 命令:

docker logs <container_id_or_name>

你还可以使用 -f 选项来实时跟踪日志输出:

docker logs -f <container_id_or_name>

3. 使用 docker compose 验证

如果你使用的是 docker compose,可以使用以下命令查看所有服务的状态:

docker logs -f <container_id_or_name>

查看所有服务的日志:

docker-compose logs

实时查看日志:

docker-compose logs -f

4. 具体示例

假设你有一个名为 airflow-webserver 的容器,以下是如何验证它是否成功启动的步骤:

检查容器状态

docker ps

你应该看到类似以下的输出:

container id   image                   command                  created         status         ports                    names
abc123def456   apache/airflow:2.9.3    "/entrypoint.sh airf…"   2 minutes ago   up 2 minutes   0.0.0.0:8080->8080/tcp   airflow-webserver

如果容器状态是 up,表明容器正在运行。

查看容器日志

docker logs airflow-webserver

你应该看到 airflow webserver 的启动日志,确认没有错误信息。

实时跟踪日志

docker logs -f airflow-webserver

实时查看容器的输出,确保没有任何问题。

使用 docker compose 验证

docker-compose ps

你应该看到类似以下的输出:

   name                     command               state                                  ports
-----------------------------------------------------------------------------------------------------------
airflow-mysql_mysql_1      docker-entrypoint.sh mysqld      up             3306/tcp
airflow-mysql_webserver_1  /entrypoint.sh airflow w ...     up (healthy)   0.0.0.0:8080->8080/tcp
airflow-mysql_scheduler_1  /entrypoint.sh airflow s ...     up

查看所有服务的日志

docker-compose logs

实时查看所有服务的日志

docker-compose logs -f

5. 健康检查

一些 docker 镜像提供了健康检查功能,可以通过 docker ps 命令中的 status 列查看健康状态。如果镜像支持健康检查,你会看到类似 up (healthy) 的状态。

6. 访问 web ui

最终,你可以通过浏览器访问相应的服务 url 以验证服务是否正常运行。例如,对于 airflow webserver,你可以访问 http://localhost:8080,如果能够看到 airflow 的登录页面,说明 webserver 已经成功启动。

总结

通过这些命令和步骤,可以有效地验证 docker 容器是否成功启动,并通过查看日志和状态排除潜在的错误。

到此这篇关于使用docker快速搭建airflow+mysql详细步骤的文章就介绍到这了,更多相关docker 搭建airflow mysql内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com