Erreur dans le recensement linguistique: Statistique Canada s’explique

Not an easy time before parliamentarians:

Statistique Canada avait «détecté certains changements» dans les données sur la langue à l’étape de la validation, mais «n’a pas, à ce moment-là, capté» qu’il aurait fallu procéder à une révision avant de diffuser les données linguistiques qui ont provoqué un tollé au Québec.

«Je sais ce qui s’est produit. Mais comment on a manqué cette erreur-là, c’est cette partie que je ne sais pas encore», a lâché devant les députés du comité permanent sur les langues officielles Marc Hamel, directeur général du programme du recensement.

L’agence fédérale avait déjà fait son mea culpa en août dernier, expliquant que l’erreur avait été causée par le logiciel de compilation de données. Celui-ci a inversé les réponses dans des formulaires en français d’environ 61 000 personnes, dont environ 57 000 au Québec.

La bourde avait eu pour conséquence de surestimer la croissance de l’anglais dans la province et dans certaines de ses régions, tant pour la langue maternelle que pour la langue parlée à la maison, ce qui avait inquiété politiciens et défenseurs de la langue française.

«Ce n’est pas le système qui n’a pas détecté (l’erreur). Ce sont les gens qui ont testé le système qui n’ont pas détecté que le système ne lisait pas le questionnaire de façon conforme», a spécifié Marc Hamel aux élus.

Le député conservateur Alupa Clarke lui a demandé si des têtes allaient rouler chez Statistique Canada, déplorant que «de plus en plus, aujourd’hui, on vit dans une société où on ne met jamais au banc des accusés les responsables».

«Dans un cas comme celui-là, on ne parle pas des individus, on parle des processus. Si à chaque fois que quelqu’un faisait une erreur, il était congédié, on en congédierait peut-être plusieurs. Les erreurs sont rares», lui a répondu M. Hamel.

«On a fait les correctifs appropriés pour éviter que ce genre de situation comme ça se reproduise encore. Est-ce que je peux vous dire aujourd’hui que dans les 100 prochaines années, ça n’arrivera pas encore? Absolument pas. L’erreur est humaine», a-t-il ajouté.

Au haut fonctionnaire, qui s’est défendu de «prêcher par nonchalance», Alupe Clarke a suggéré d’envoyer une «lettre diplomate» aux 5000 employés de l’agence pour leur dire de faire gaffe à l’avenir, établissant un parallèle avec son expérience dans les Forces armées.

«Moi, j’ai fait l’armée, puis nous, ça ne niaise pas, là. Il y a une discipline (…) puis quand on fait la guerre, ça marche», a-t-il lâché.

Un peu plus tôt, son collègue néo-démocrate François Choquette s’était étonné que l’agence ait diffusé les données linguistiques alors que certaines d’entre elles, en particulier dans certaines villes à forte majorité francophone, étaient clairement suspectes.

«Attendez que je comprenne comme il faut: 164 pour cent d’augmentation de la population anglophone à Rimouski, 115 à Saguenay, 110 à Drummondville. Vous avez eu ces chiffres-là, qui n’étaient pas normaux, et vous avez quand même décidé de les sortir?», a-t-il questionné.

Le directeur adjoint de la division de la statistique sociale, Jean-Pierre Corbeil, a répondu que ce n’était «pas aussi simple» et qu’il «fallait être prudent quand on faisait des comparaisons historiques», surtout compte tenu des changements survenus sous les conservateurs en 2011.

Ces données contenues dans la livraison initiale de données du 2 août dernier étaient passées sous le radar jusqu’à ce que le président de l’Association d’études canadiennes, Jack Jedwab, lève un drapeau rouge après avoir passé les chiffres au peigne fin.

Les données revues et corrigées publiées quelques jours après ont confirmé que le français avait effectivement perdu du terrain au Québec, mais moins qu’annoncé initialement, et que l’anglais n’avait pas progressé, mais plutôt reculé, dans la province.

En présentant les nouveaux chiffres, l’agence fédérale avait fait acte de contrition et reconnu que cette erreur était d’autant plus regrettable qu’elle concernait un enjeu fort délicat au Québec.

«Nous sommes très conscients de l’aspect très sensible de cette question, de ces enjeux, et Statistique Canada va corriger le tir, simplement», affirmait Jean-Pierre Corbeil, directeur adjoint de la division de la statistique sociale et autochtone, qui était aussi au comité, mardi.

Source: Erreur dans le recensement linguistique: Statistique Canada s’explique | Mélanie Marquis | National

New system to release census data faces uncertain future over delays

An admirable effort to make the Census easier to sort through runs into technical problems:

An $18-million project to make it easier to sort through reams of data from the coming census has been beset by delays and uncertainty that the three-year project will be done on time.

Called the “new dissemination model,” the project is designed to make it easier for visitors to the Statistics Canada website to organize, read and play with the data statistical agency collects, be it census or jobs data, or anything else the agency measures.

The end idea is to create a more interactive experience online instead of pages of static data tables, and also to simplify and standardize how information is presented.

It was all supposed to be ready in time for February 2017 when Statistics Canada releases its findings from this year’s census.

Statistics Canada and Shared Services Canada, the government’s central information-technology department that is building the new system, said the project has been delayed, but couldn’t say by how long or if it could still be completed on time.

Shared Services Canada said it has faced “a number of challenges” hosting the new system in its data centres that it is trying to address.

Internal government documents show there was a “final go/no-go” test on the system in December 2015. Statistics Canada hasn’t made a decision on the project following the test, the details of which neither agency would disclose, and is “currently analyzing the impact of the delay” to see what the next step will be.

The project is a microcosm of the problems auditor general Michael Ferguson raised last Tuesday in a critical review of Shared Services Canada. That audit found, among other things, that Shared Services Canada didn’t always communicate well with the departments and agencies it serves, leaving some of them in the dark about projects, and confusion over who was responsible for what.

As this will likely be more for general users, expect that I will continue to use the Beyond 2020 specialized software rather than this tool once (or if) it becomes available. My only wish is for Beyond 2020 to have a Mac version rather than having to run Windows.

I have been invited to a Stats Canada usability testing session this week which will give me a better sense of the planned approach.

Source: New system to release census data faces uncertain future over delays

Statscan explains why private school students perform better

Not terribly surprising that socio-economic status and education-levels account for most of better performance of private schools but substantiated by the data:

The Statscan report, released Tuesday, says the reason for the higher performance of private school students is their socio-economic status, which includes a higher family income and higher-educated parents.

The study followed more than 7,142 students starting at the age of 15, looking at their scores on standardized tests and their completed educational qualifications by the age of 23.

“No differences in outcomes were attributable to school resources and practices,” the report concludes.

Marc Frenette, one of the two researchers who conducted the study, said the school resources analyzed include student-to-teacher ratio, computer resources available, teacher qualifications and number of teachers available to tutor students.

The study did not look at classroom-based factors, including teaching style, classroom lessons or extracurricular activities offered to students, Mr. Frenette said. It also did not consider the curriculum the schools teach.

Schools from Atlantic Canada were excluded because of a low number of private high schools in those provinces, Mr. Frenette said.

The higher socio-economic status of private school students and their peers accounts for half of the difference in the average score of standardized tests between private and public school students and “two-thirds of the difference in university graduation rates” between the two groups of students, according to the report.

Jim Power, principal of Upper Canada College, an all-boys private school in Toronto, said the selection process that private schools undertake means that their students are more motivated.

“Private schools, by definition, are selective. We’re fortunate. We take one out of three students who apply,” Mr. Power said.

Statscan explains why private school students perform better – The Globe and Mail.

Why Canada has a serious data deficit

More on the importance of good data by Barrie McKenna in the Globe’s Report on Business:

Prof. Gross [the C.D. Howe Institute researcher responsible for their study on Temporary Foreign Workers and their effect on increasing unemployment in AB and BC] acknowledged that perfect data is “very costly.”

So is bad data.

Employment Minister Jason Kenney recently imposed a moratorium on the use of temporary foreign workers in the restaurant industry, following embarrassing allegations of misuse by some McDonald’s franchise and other employers. And he has promised more reforms to come.

But who is to say that restaurants need imported foreign labour any less than hotels or coal mines, which are unaffected by the moratorium? And without better information, Mr. Kenney may compound his earlier decision to expand the program with an equally ill-considered move to shrink it.

The government’s troubles with the temporary foreign workers program is a classic case of bad data leading to dubious decision-making. Until recently, the government has relied on inflated Finance department job vacancy data, compiled in part by tracking job postings on Kijiji, a free classified-ad website. Statscan, meanwhile, was reporting that the national job vacancy rate was much smaller, and falling.

The problem goes way beyond temporary foreign workers. And it’s a data problem of the government’s own making. Ottawa has cut funds from important labour market research, slashed Statscan’s budget more savagely than many other departments, and scrapped a mandatory national census in favour of a less-accurate voluntary survey.

The Canadian government has demonstrated “a lack of commitment” to evidence-based decision-making and producing high-quality data, according to a global report on governance released last week by the Bertelsmann Foundation, a leading German think tank. The report ranked Canada in the middle of the pack and sliding on key measures of good governance compared with 40 other developed countries

One of the disadvantages of being in government for almost 10 years is that decisions which may have appeared to be cost-free can come back and haunt you.

Why Canada has a serious data deficit – The Globe and Mail.