Penyandang tunanetra menghadapi tantangan dalam mengenali dan mencocokkan warna pakaian secara mandiri, yang berdampak pada kepercayaan diri dan kemandirian dalam kehidupan sehari-hari. Penelitian ini bertujuan untuk mengembangkan prototipe aplikasi berbasis Android yang dapat membantu tunanetra dalam mendeteksi warna pakaian menggunakan algoritma YOLOv5 serta memberikan umpan balik berupa suara melalui fitur text-to-speech. Metode penelitian menggunakan pendekatan CRISP-DM yang mencakup enam tahap yaitu Business Understanding, Data Understanding, Data Preparation, Modeling, Evaluation, dan Deployment. Dataset yang digunakan terdiri dari 2.620 gambar pakaian yang dikumpulkan dari Roboflow dan kolega penulis, kemudian dianotasi dan diperluas melalui teknik augmentasi hingga mencapai 6.283 gambar. Model YOLOv5 dilatih selama 200 epoch dengan konfigurasi hyperparameter tertentu, dan dievaluasi menggunakan metrik precision, recall, F1-score, dan mAP. Hasil pelatihan menunjukkan bahwa model mencapai precision sebesar 83,60%, recall sebesar 81,89%, F1-score sebesar 82,66%, dan [email protected] sebesar 86,37%, yang menunjukkan performa deteksi warna yang konsisten dan akurat. Prototipe aplikasi yang dikembangkan berhasil diimplementasikan dengan baik dan memberikan informasi warna secara verbal kepada pengguna. Validasi melalui wawancara dengan penyandang tunanetra dan staf di Sentra Wyata Guna menunjukkan bahwa sistem ini mampu meningkatkan efisiensi, kemandirian, dan kenyamanan pengguna dalam memilih pakaian. Penelitian ini menunjukkan bahwa teknologi computer vision dapat diadaptasi secara inklusif untuk mendukung kebutuhan penyandang disabilitas visual.