La Discrimination Positive en France : Origines, Contexte et Impacts
La discrimination positive en France et ses effets représente une politique complexe visant à rééquilibrer les chances au sein de la société française. Cette approche, bien que controversée, cherche à corriger les inégalités systémiques qui persistent malgré le principe d'égalité républicaine.
Définition: La discrimination positive désigne l'ensemble des mesures qui accordent un traitement préférentiel à des groupes de personnes victimes de discriminations systémiques, dans le but de rétablir une égalité des chances.
L'origine et contexte de la discrimination positive remonte aux États-Unis des années 1960, avec l'introduction de l'affirmative action sous la présidence de John Kennedy. Cette politique visait initialement à favoriser l'intégration des Afro-Américains dans le monde professionnel, avant de s'étendre à d'autres minorités.
La France a développé sa propre approche, distincte du modèle américain. Elle évite soigneusement toute référence explicite aux critères ethniques ou raciaux, conformément aux principes républicains d'indivisibilité de la nation.