|
--- |
|
language: |
|
- en |
|
- fr |
|
license: mit |
|
datasets: |
|
- UMA-IA/PYXIS-Engine-v1 |
|
base_model: Qwen/Qwen2.5-VL-7B-Instruct |
|
tags: |
|
- aerospace |
|
- aeronautics |
|
- engineering |
|
- vision-language |
|
- component-detection |
|
pipeline_tag: image-to-text |
|
--- |
|
|
|
## Model Details |
|
|
|
**Model Name:** UMA-IA/AQUILA-Engine-v1 |
|
**Authors:** |
|
- **Youri LALAIN**, Engineering student at French Engineering School ECE |
|
- **Lilian RAGE**, Engineering student at French Engineering School ECE |
|
|
|
**Base Model:** [Qwen/Qwen2.5-VL-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct) |
|
**Fine-tuned Dataset:** [UMA-IA/PYXIS-Engine-v1](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Engine_Aero_VLM) |
|
**License:** Apache 2.0 |
|
|
|
## Model Description |
|
|
|
# Qwen2.5-VL Fine-tuned pour la détection de composants de moteurs aérospatiaux |
|
|
|
UMA-IA/AQUILA-Engine-v1 est une version spécialisée du modèle Qwen2.5-VL-7B-Instruct, fine-tunée pour détecter, identifier et analyser les composants de moteurs aéronautiques et aérospatiaux à partir d'images. Le modèle exploite le dataset UMA-IA/PYXIS-Engine-v1 pour améliorer sa capacité à reconnaître les pièces spécifiques, les défauts potentiels et les caractéristiques techniques des systèmes de propulsion. |
|
|
|
## Capacités |
|
- Détection et identification précise des composants de moteurs aéronautiques |
|
- Analyse visuelle des pièces mécaniques et de leur état |
|
- Reconnaissance des défauts ou anomalies sur les composants |
|
- Fourniture d'informations techniques sur les pièces identifiées |
|
- Assistance au diagnostic visuel pour la maintenance |
|
|
|
## Cas d'utilisation |
|
- Formation des techniciens et ingénieurs aéronautiques |
|
- Assistance à la documentation technique |
|
- Aide visuelle |
|
|
|
## Détails de l'entraînement |
|
Ce modèle a été fine-tuné sur UMA-IA/PYXIS-Engine-v1, un dataset spécialement créé pour l'identification visuelle de composants de moteurs aérospatiaux. L'entraînement a été réalisé en utilisant des techniques de fine-tuning supervisé pour adapter le modèle Qwen2.5-VL à la reconnaissance de composants techniques spécifiques. |
|
|
|
## Comment utiliser le modèle |
|
Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de Hugging Face : |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
from PIL import Image |
|
import requests |
|
from io import BytesIO |
|
|
|
# Charger le modèle et le tokenizer |
|
model_name = "UMA-IA/AQUILA-Engine-v1" |
|
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True) |
|
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) |
|
|
|
# Charger une image (exemple avec une URL) |
|
image_url = "URL_DE_VOTRE_IMAGE" |
|
response = requests.get(image_url) |
|
image = Image.open(BytesIO(response.content)) |
|
|
|
# Préparer la requête |
|
prompt = "Identifiez les composants visibles dans cette image de moteur d'avion et décrivez leur fonction." |
|
response = model.chat(tokenizer, query=prompt, image=image) |
|
print(response) |