L'IA apprend ta voix — personnalisation vocale et sélecteur TTS
Depuis octobre, l'IA de TAMSIV comprenait ce que tu disais. Elle créait des tâches, des mémos, des événements. Elle répondait poliment. Mais elle ne te connaissait pas.
Tu pouvais lui dire "rappelle-moi d'acheter du lait" et elle le faisait. Mais si tu lui disais "rappelle-moi le truc pour les enfants", elle ne savait pas que tu avais des enfants, ni combien, ni ce que "le truc" voulait dire dans ton quotidien.
Cette semaine, à deux jours du lancement public, j'ai ajouté la personnalisation vocale.
Configurer son IA par la voix
Un nouveau bouton est apparu sur l'écran du dictaphone : "Configurer mon IA". Tu appuies, tu parles, et tu lui expliques qui tu es.
"Je suis parent de 3 enfants, je gère une équipe de 4 personnes dans une entreprise de nettoyage, et j'oublie tout ce qu'on me dit après 30 secondes."
L'IA écoute, résume ton contexte, et le stocke. À partir de là, chaque réponse est adaptée. Si tu parles de "le petit", elle sait que tu parles de ton fils. Si tu dis "le chantier de mardi", elle sait que tu gères des interventions terrain.
C'est la différence entre un assistant générique et un assistant qui te connaît.
6 voix, une preview, ton choix
La voix, c'est intime. Entendre la même voix robotique 50 fois par jour, ça finit par agacer. J'ai ajouté un sélecteur de voix TTS avec 6 options différentes — masculines, féminines, tons variés.
Tu appuies sur une voix, tu entends une preview en temps réel ("Bonjour, je suis votre assistant TAMSIV..."), et tu choisis. C'est stocké dans ton profil et utilisé pour toutes les réponses vocales.
Le bug qui a coûté 3 heures
L'écran de configuration IA et le dictaphone partagent le même canal WebSocket. Quand tu testes ta voix dans le setup, le dictaphone en arrière-plan essayait aussi de traiter les callbacks audio. Résultat : les deux écrans se marchaient dessus.
La solution : isoler les callbacks avec un système de "propriétaire actif". Quand l'écran de setup est ouvert, il prend le contrôle exclusif du WebSocket. Le dictaphone attend son tour. Simple en théorie, 3 heures de debug en pratique — parce que le conflit ne se manifestait que sur certains modèles Android où le garbage collector était plus agressif.
Personnalisation dans les plans
La personnalisation IA fait maintenant partie des fonctionnalités mises en avant dans les plans Pro et Team. Les utilisateurs gratuits ont accès à un contexte basique, les plans payants débloquent le contexte complet et le choix de voix.
730+ commits, J-2
C'était la dernière fonctionnalité avant le lancement public de lundi. L'app sait maintenant à qui elle parle. Il reste le polish final, les derniers tests sur les appareils des beta-testeurs, et le grand saut.
Lundi, TAMSIV devient public sur le Play Store. 6 mois de développement solo. Et maintenant, une IA qui te connaît.