1. L40的计算能力是8.9
deepseek 搜索
2. flash attention 3(FA3)要求计算能力大于等于8 并排除8.6和8.9以及blackwell archs(>=10)
./vllm/platforms/cuda.py
-> L40不支持FA3
3. FA2不支持kv-cache-fp8,只有FA3支持kv-cache-fp8
fa_utils.py
def flash_attn_supports_fp8() -> bool:
return get_flash_attn_version() == 3 and \
current_platform.get_device_capability().major == 9
-> L40现在用的是fp8
-> L40不能用FA3
L40不能用dual_chunk_attention_config
【vllm】L40分析
最新推荐文章于 2025-09-08 09:22:18 发布