Public Defender of Georgia Hosts GANHRI Bureau Meeting

Date of article: 09/12/2025

Daily News of: 10/12/2025

Country:  Georgia

Author:

Article language: en

On December 3 and 4, 2025, in Tbilisi, the Public Defender’s Office of Georgia hosted a meeting of the Bureau of the Global Alliance of National Human Rights Institutions (GANHRI).

The Bureau members gathered in Georgia to assess the progress of the implementation of the Strategic Plan for 2023-2027 and discuss key priorities for supporting national human rights institutions (NHRIs) worldwide.

The meeting held in Georgia was attended by Bureau members from all four GANHRI regions, as well as representatives of the United Nations Development Programme (UNDP), the Office of the High Commissioner for Human Rights (OHCHR), and the secretariats of GANHRI segional networks.

In his welcoming speech at the Bureau session, the Public Defender of Georgia, Levan Ioseliani, spoke about the importance of active participation and engagement of the Public Defender’s Office in the activities of the Global Alliance of National Human Rights Institutions.

Tamar Gvaramadze, First Deputy Public Defender of Georgia, has been a member of the GANHRI Bureau since March 2025 and will serve in this capacity for 3 years.

The GANHRI Bureau approved the 2026 work plans, which determine the main directions of the next year’s activities. In addition, the Bureau heard a report on the work of the Subcommittee on Accreditation (SCA) and discussed issues related to the accreditation of national human rights institutions.

The Public Defender’s Office of Georgia continues to actively participate in the activities of GANHRI and global platforms, which further strengthens Georgia’s role in the international human rights agenda.

The event was co-financed by the European Union project - "Support to the Public Defender's Office".

Read more

Doctors told man with terminal illness that he would be okay

Date of article: 04/12/2025

Daily News of: 10/12/2025

Country:  United Kingdom

Author:

Article language: en

Doctors failed to tell a father of seven that he had a terminal illness and gave him false reassurance that he would be all right, an investigation by England’s Health Ombudsman has found. 

William Chapman, known as Syd, died eight months after accidentally discovering his prognosis when his GP, believing hospital doctors had already told him the full scale of his condition, mentioned it during a phone call. 

The Parliamentary and Health Service Ombudsman (PHSO) said that the doctors at the Countess of Chester Hospital showed a worrying lack of accountability and had failed to learn from the mistakes made in Syd’s case. 

Our investigation highlights how quickly trust can be eroded in public services and why NHS and Government leaders need to make sure they build and support a consistent culture of openness and honesty within the NHS. 

Rebecca Hilsenrath KC (Hon), Chief Executive Officer at PHSO, said, 

There are many brilliant and dedicated people working in the challenging circumstances of an NHS under intense pressure. But it is inevitable that sometimes things go wrong. When that happens, it is important that people listen and take learning on board.

 

 “This disturbing case highlights the importance of effective communication and the consequences of getting it wrong. When you hear this kind of diagnosis in this kind in this way, you lose a sense of dignity and the opportunity to make your own decisions about how to live your life. The family’s trauma was compounded by their treatment during the hospital’s internal complaints handling.

 

“Too little accountability and too much defensiveness in the NHS is something we highlighted in our Broken Trust report two years ago. There needs to be a cultural shift starting from the top down to improve patient safety and avoid further harm to patients and their families.

 

“Good communication is critical in health settings. In this case, a patient was misinformed about his health and this led to a breakdown in trust between clinicians and the patient and to prolonged distress for his family.” 

 

 

Syd, 58, from Upton, Cheshire, was a grandfather-of-16, had served in the Royal Irish Rangers and ran a cleaning business.  

He went to the hospital in July 2021 with deteriorating shortness of breath and was diagnosed with COVID-19. Syd was referred to the specialist lung department the following month for further tests. 

In September, a junior doctor told Syd that there was nothing to worry about and gave him unfounded reassurance that he would be all right when they did not know this would be the case. 

On 1 November, Syd was seen by a consultant who noted in a letter to his GP that he had pulmonary fibrosis, a type of lung disease that makes it hard to breathe. The consultant did not send Syd the letter or tell him about the diagnosis as they should have. 

Syd found out that he had pulmonary fibrosis, a progressive and terminal illness, when he spoke to his GP in December. Syd died in August 2022.

Syd’s daughter Chantelle, 32, said, 

We feel completely let down by the Trust. My dad thought he was going to get better, because that’s what they led him to believe. Because of that he carried on working even though it was a struggle for him. 

 

“If he had known the truth, he would have given up work and made the most of the time he had left with his family. By the time he was given the information to make that decision he was too poorly to work anyway, he was practically bed-bound. We all lost that time to spend together.

 

“It was such a rollercoaster. This has affected all of us and we’ve all lost our trust in the NHS. A relative offered to pay for my dad to have treatment privately, but he had such faith in the NHS that he turned it down. 

 

“Medical staff have a duty of care to tell patients what is really happening. It was very traumatic for us all to lose him after being told that he would be fine.” 

The Ombudsman found that Syd was given false reassurances about his prognosis which prevented him from making informed decisions about his health and meant he was not prepared when later told that his illness was extremely serious. 

Hospital staff failed to listen to Syd’s family. Consultations were not recorded properly in his medical records, and sometimes not recorded at all.

The Countess of Chester Hospital NHS Foundation Trust took over a year to respond to the family’s complaint. The Trust did not adequately investigate what happened or acknowledge all its failings. This meant Syd’s family had to go through an unnecessarily long and painful process to get the answers they were seeking. 

The Trust also failed to properly acknowledge the impact its failings had on Syd and his family and, most importantly, to learn from what had happened. While the Trust acknowledged that it had provided false reassurance to Syd, it had not taken adequate steps to make sure this does not happen again.

PHSO found no failings with the clinical care given to Syd. 

Rebecca Hilsenrath added, 

We found some poor record keeping which can affect a Trust’s ability to understand the impact of what happened and to take appropriate steps to prevent it from reoccurring.

 

“Poor quality investigations and unacceptable delays in responding to complainants are issues we have highlighted before in the NHS. We routinely see Trusts fail to accept errors or acknowledge the impact, which causes complainants more distress at what is already a difficult time.” 

PHSO recommended the Trust acknowledge its failings and apologise to Syd’s family, make service improvements, improve its record keeping, and pay Syd’s wife £1,200. The Trust has complied.

Read the investigation report.

Read more

Appointment to the IPCAN board confirms the professional credibility and international recognition of the NPM's work

Date of article: 09/12/2025

Daily News of: 10/12/2025

Country:  Slovenia

Author:

Article language: en

Katarina Vučko, a member of the National Preventive Mechanism (NPM), which operates under the Human Rights Ombudsman of the Republic of Slovenia, attended the annual seminar of the Independent Police Complaints Authority Network (IPCAN) in Paris on 4 and 5 December 2025, hosted by the French Ombudsman. The main topic of the meeting was the relationship between the police and minors, with special attention paid to respecting the dignity of the child and ensuring safeguards in police procedures. Katarina Vučko was also appointed to the board of the IPCAN network, which confirms the professional credibility and international recognition of the work of the NPM in the field of police oversight.

The meeting participants discussed various aspects of police work with minors: handling of arrests, use of coercive measures, provision of legal aid, the role of parents, interrogation procedures, and conditions of detention, as well as assessing the vulnerability of children and appropriate communication between police officers. In this context, Katarina Vučko presented selected cases of the Ombudsman, and a special discussion also took place on cases from the practice of other member states and on key risks for unjustified interference with the rights of minors.

The network members have also formulated the content of the IPCAN 2025 Declaration, which will call on national and European authorities to adopt all necessary measures to ensure respect for the dignity and rights of minors in police procedures. The draft emphasises, among other things, the need for clear and concrete guidelines for policing with minors, mandatory training for police officers, strict regulation of the use of coercive measures, effective protection procedures for children in detention, and special treatment of the most vulnerable groups, such as unaccompanied children and victims of human trafficking.

Read more

(FRA) Un rapport de la FRA préconise une évaluation efficace des droits fondamentaux dans le domaine de l’IA à haut risque

Date of article: 04/12/2025

Daily News of: 05/12/2025

Country:  EUROPE

Author:

Article language: fr

Protection des données, respect de la vie privée et nouvelles technologies

  

Intelligence artificielle et mégadonnées

AI risk management and ethics safety concept with checklist and alert icons floating over laptop as professional ensures responsible artificial intelligence system through compliance and validation
IDOL'foto / Adobestock.com, 2025

L’intelligence artificielle (IA) offre de nombreuses possibilités à nos sociétés et à nos économies. Cependant, elle met également en péril les droits fondamentaux, en particulier dans des domaines sensibles tels que le recrutement ou les prestations sociales. Reposant sur des entretiens avec des prestataires de service, des déployeurs et des experts, un nouveau rapport de l’Agence des droits fondamentaux de l’Union européenne (FRA) révèle que de nombreux acteurs du secteur des systèmes d’IA à haut risque ne savent pas comment évaluer ou atténuer systématiquement ces risques. Sensibiliser davantage et renforcer la mise en œuvre du règlement sur l’IA dans le respect des droits sont des démarches essentielles pour protéger les droits des personnes tout en favorisant l’innovation et en créant une sécurité juridique pour les entreprises.

Download report

Le rapport « Assessing high-risk artificial intelligence » (évaluer l’intelligence artificielle à haut risque) se penche sur le développement et l’utilisation de l’IA dans cinq domaines définis comme étant à haut risque en vertu du règlement sur l’IA : l’asile, l’enseignement, l’emploi, l’application de la loi et les biens publics. Il s’agit notamment de l’utilisation de l’IA dans le cadre des candidatures professionnelles et des examens, de la détermination de l’éligibilité aux pensions d’invalidité, de l’évaluation des capacités de lecture des enfants, et d’autres applications. Ces systèmes doivent être fiables, car ils peuvent influencer des décisions importantes qui affecteront la vie quotidienne des citoyens. Construire cette confiance nécessite d’examiner attentivement les incidences de ces systèmes sur les droits fondamentaux.

Les conclusions de la FRA montrent que les fournisseurs d’IA sont généralement conscients des risques que leurs systèmes font peser sur le respect de la vie privée, la protection des données et la non-discrimination. Toutefois, nombre d’entre eux ne prennent pas en considération leurs conséquences plus larges sur les droits fondamentaux. Par exemple, les fournisseurs de systèmes d’IA utilisés pour évaluer les capacités de lecture des enfants négligent souvent d’apprécier comment leur système est susceptible d’influer sur le droit à l’éducation.

Les approches visant à atténuer les risques découlant des utilisations de l’IA sont fragmentées et leur efficacité n’a pas été prouvée. Par exemple, de nombreux prestataires se concentrent sur la surveillance humaine en tant que mesure d’atténuation, mais il ne s’agit pas d’une solution globale. Les personnes chargées de superviser un système d’IA peuvent se fier excessivement à ses résultats ou ne pas détecter certaines erreurs. Parallèlement à la surveillance humaine, d’autres mesures d’atténuation sont primordiales.

Basé sur des entretiens approfondis menés avec des personnes travaillant avec des IA à haut risque, le rapport met en évidence les difficultés rencontrées pour définir ce qui constitue un système d’IA et déterminer quand ces systèmes doivent être classés comme présentant un risque élevé au sens du règlement concerné. Par exemple, les organisations peuvent appliquer ce que l’on appelle un « filtre » pour exclure les systèmes de la catégorie à haut risque s’ils effectuent des tâches simples ou préparatoires telles que le traitement de dossiers. Néanmoins, ces systèmes peuvent tout de même porter atteinte aux droits des personnes s’ils produisent des résultats inexacts. Si ce filtre était interprété de manière trop large, il pourrait créer des failles et limiter la protection des droits fondamentaux dans la pratique.

Pour remédier à ces problèmes et garantir une compréhension commune des systèmes d’IA à haut risque, la FRA propose:

  • D’interpréter de façon extensive la définition de l’IA: même les systèmes les moins complexes peuvent contenir des biais, conduire à des discriminations ou porter atteinte aux droits fondamentaux. Par conséquent, la définition d’un système d’IA devrait être interprétée de façon extensive afin de garantir une protection efficace des droits fondamentaux et de solidifier l’application du règlement sur l’IA.
  • D’éviter les failles liées aux « filtres »: les filtres des systèmes à haut risque prévus par le règlement sur l’IA doivent être appliqués de manière claire et restrictive afin d’éviter toute faille susceptible de compromettre la protection des droits fondamentaux dans l’ensemble de l’UE. La Commission européenne et les autorités nationales doivent surveiller de près la manière dont les filtres sont utilisés. Si nécessaire, la Commission doit réviser les règles afin d’éviter toute utilisation abusive.
  • Des orientations claires en matière d’analyses d’impact sur les droits fondamentaux: des orientations claires et cohérentes sont nécessaires pour garantir que les évaluations des risques liés aux systèmes d’IA à haut risque protègent efficacement tous les droits fondamentaux, au-delà des droits à la vie privée, à la protection des données et à la non-discrimination. Le recensement et l’atténuation des risques pour les droits fondamentaux favoriseront une innovation responsable et une concurrence loyale en aidant les fournisseurs à créer une IA de meilleure qualité et plus digne de confiance.
  • D’investir dans une meilleure compréhension des risques et des mesures d’atténuation: la Commission européenne et les pays de l’UE devraient investir dans des études et des essais sur les systèmes d’IA, en particulier dans les domaines à haut risque, en vue d’une meilleure compréhension des risques liés aux droits fondamentaux et de pratiques d’atténuation efficaces, ce qui faciliterait la mise en œuvre du règlement sur l’IA.
  • D’assurer une surveillance adéquate: les auto-évaluations sont importantes, mais elles ne fonctionnent que lorsqu’elles sont soutenues par un contrôle indépendant exercé par des organismes dotés de ressources suffisantes et possédant une expertise en matière de droits fondamentaux. L’UE et ses États membres doivent veiller à ce que les autorités de contrôle disposent d’un financement, de personnel et d’un appui technique suffisants pour superviser efficacement l’utilisation des systèmes d’IA.

Citation de la directrice de la FRA Sirpa Rautio :

« Évaluer les risques liés aux droits fondamentaux constitue une bonne pratique et est bénéfique pour les entreprises. Cette démarche contribue à la mise en place d’une IA digne de confiance au service des personnes et crée une sécurité juridique pour les entreprises. Ce type d’évaluation permet également de concrétiser l’engagement pris par l’UE en faveur de l’innovation et de rester compétitif sans renier aucune valeur ou norme. La simplification de la réglementation est la bienvenue, mais pas au détriment des droits fondamentaux, en particulier dans les domaines à haut risque. »

Les entretiens menés en vue d’élaborer ce rapport ont été achevés avant que la Commission européenne ne publie la proposition de train de mesures omnibus sur le numérique le 19 novembre 2025. Les conclusions du rapport n’abordent donc pas directement celle-ci.

Le rapport s’appuie sur des entretiens menés auprès de fournisseurs et de déployeurs de systèmes d’IA ainsi que d’experts en IA en Allemagne, en Irlande, aux Pays-Bas, en Espagne et en Suède. Il s’achève par les enseignements tirés des entretiens menés avec des groupes cibles et des titulaires de droits.

Le rapport se fonde sur les précédents rapports de la FRA concernant l’intelligence artificielle et les droits fondamentaux, et les biais des algorithmes, qui mettent en évidence la manière dont l’IA affecte tous les droits fondamentaux, et pas seulement le droit à la vie privée ou à la protection des données.

Pour obtenir de plus amples informations, veuillez envoyer un message à l’adresse : media@fra.europa.eu /  Tél. : +43 1 580 30 642

Interviews for this report and its contents were finalised before the European Commission issued the Digital Omnibus proposal on 19 November 2025. The report’s findings do not directly address the Digital Omnibus proposal.

The report is based on interviews with providers and deployers of AI systems and AI experts in Germany, Ireland, the Netherlands, Spain and Sweden. Insights from focus groups and interviews with rightsholders complement the analysis.

It builds on FRA’s previous reports on artificial intelligence and fundamental rights, and on bias in algorithms which highlight how AI affects all fundamental rights, not just privacy or data protection.

For more, please contact: media@fra.europa.eu / Tel.: +43 1 580 30 642

 

Read more

Ukrainische parlamentarische Ombudsman-Einrichtung besucht Österreich

Date of article: 04/12/2025

Daily News of: 05/12/2025

Country:  Austria

Author:

Article language: de

Am 27. November 2025 besuchte eine zwanzigköpfige Delegation der ukrainischen parlamentarischen Ombudsman-Einrichtung die Volksanwaltschaft zu einem Arbeitsbesuch.

Im Mittelpunkt des Austauschs stand die Expertise der Volksanwaltschaft zu Staatenprüfungen im Rahmen der Vertragsorgane der Vereinten Nationen. Beide Seiten betonten, dass internationale und nationale Vernetzung entscheidend für nachhaltige Veränderungen ist.

Die Vertreterinnen und Vertreter der regionalen Büros des ukrainischen Ombudsmans berichteten außerdem über ihre Arbeit unter den anhaltenden Kriegsbedingungen. Die Zahl der Beschwerden ist seit Kriegsbeginn deutlich gestiegen.

Der Besuch wurde im Rahmen des Projekts „Menschenrechtsinfrastruktur für die Ukraine“ vom Raoul Wallenberg Institut für Menschenrechte und humanitäres Völkerrecht ermöglicht. 

Read more

Link to the Ombudsman Daily News archives from 2002 to 20 October 2011