Policy Research Working Paper 8944 What We Learn about Girls’ Education from Interventions that Do Not Focus on Girls David K. Evans Fei Yuan Africa Region Office of the Chief Economist & Education Global Practice July 2019 Policy Research Working Paper 8944 Abstract Despite dramatic global gains in access to education, 130 middle-income countries and identifies their impacts on million girls of school age remain out of school. Among girls, regardless of whether the interventions specifically those who do enter, too many do not gain the essential skills target girls. The review finds that to improve access and to succeed after they complete their schooling. Previous learning, general interventions deliver gains for girls that efforts to synthesize evidence on how to improve educational are comparable to girl-targeted interventions. At the same outcomes for girls have tended to focus on interventions time, many more general interventions have been tested, that are principally targeted to girls, such as girls’ latrines providing a broader menu of options for policy makers. or girls’ scholarships. But if general, non-targeted interven- General interventions have similar impacts for girls as for tions—those that benefit both girls and boys—significantly boys. Many of the most effective interventions to improve improve girls’ education, then focusing only on girl-targeted access for girls are household-based (such as cash transfer interventions may miss some of the best investments for programs), and many of the most effective interventions to improving educational opportunities for girls in absolute improve learning for girls involve improving the pedagogy terms. This review brings together evidence from 270 edu- of teachers. Girl-targeted interventions may make the most cational interventions from 177 studies in 54 low- and sense when addressing constraints that are unique to girls. This paper is a product of the Office of the Chief Economist, Africa Region and the Education Global Practice. It is part of a larger effort by the World Bank to provide open access to its research and make a contribution to development policy discussions around the world. Policy Research Working Papers are also posted on the Web at http://www.worldbank.org/ prwp. The authors may be contacted at devans@cgdev.org and fyuan@g.harvard.edu. The Policy Research Working Paper Series disseminates the findings of work in progress to encourage the exchange of ideas about development issues. An objective of the series is to get the findings out quickly, even if the presentations are less than fully polished. The papers carry the names of the authors and should be cited accordingly. The findings, interpretations, and conclusions expressed in this paper are entirely those of the authors. They do not necessarily represent the views of the International Bank for Reconstruction and Development/World Bank and its affiliated organizations, or those of the Executive Directors of the World Bank or the governments they represent. Produced by the Research Support Team What We Learn about Girls’ Education   from Interventions that Do Not Focus on Girls David K. Evans  Fei Yuan1  JEL Classification: I21, I24, J16, O1   Keywords: education, girls, effect size, impact evaluation, economic development  1  The authors would like to thank Deon Filmer, Erin Ganju, Markus Goldstein, Pamela Jakiela, Oni Lusk‐ Stover,  Mary  Obelnicki,  Owen  Ozier,  Pauline  Rose,  Dana  Schmidt,  Craig  Silverstein,  Lexie  Wagner,  Kim  Wright‐Violich, Louise Yorke, and various seminar audiences for feedback and suggestions. We would also  like to thank Echidna Giving and the Umbrella Facility for Gender Equality at the World Bank for financing  this work. We thank Tara Siegel, Danielle Sobol, and Shikhty Sunny for excellent research assistance. The  authors  may  be  contacted  at  the  following  locations:  Evans  (Center  for  Global  Development:  devans@cgdev.org) and Yuan (Harvard Graduate School of Education: fyuan@g.harvard.edu).    1. Introduction   Investing in girls’ education has been called “the world’s best investment” (Sperling and Winthrop  2015). Roughly 15 percent of the world’s population in 2016 are girls younger than 18 years old.  Educating girls frees them to raise their aspirations and increases their potential to achieve them.  It allows them to access better health, higher earnings, and more control over their lives, which  subsequently leads to positive impacts on their families, communities, and societies (World Bank  2018b).  More  and  better  education  for  girls  and  boys  contributes  to  economic  growth,  labor  productivity, and social mobility.   The effects of girls’ education extend across generations. Better educated women tend to have  lower fertility rates (Castro Martin 1995). They also have lower child mortality rates: data from  175 countries between 1970 and 2009 show that 51 percent of the reduction in deaths in children  younger  than  5  years  in  the  past  40  years  could  be  attributed  to  the  increased  education  attainment in women of reproductive age (Gakidou et al. 2010). In addition, mothers’ education  is  strongly  associated  with  children’s  educational  attainment  and  achievement  (Ermisch  and  Francesconi 2001; Schultz 2002).   Despite all the demonstrated benefits, girls face challenges in education that boys do not. For  example, girls’ schooling is more sensitive to both direct costs and opportunity costs than that of  boys (King and Winthrop 2015). When girls become teenagers, early marriage and adolescent  pregnancy may prevent them pursuing further schooling (Field and Ambrus 2008). Social norms  in  certain  cultural  contexts  may  restrict  them from  accessing  economic  opportunities  as  well,  potentially limiting the gains from investing in education. For example, 90 percent of women in  Uttar Pradesh, India, reported that they needed their husband’s permission to work (World Bank  2018b). Even when women participate in the labor market, they are less likely to find a job. In  the  Middle  East  and  North  Africa,  the  female  unemployment  rate  is  twice  that  of  their  male  counterparts (ILO 2017). Educating girls increases their control over their own lives – regardless  of whether they participate in the formal labor market – and empowers them to advance gender  equality in other areas.   Globally, the gender gap in primary and secondary schooling has significantly narrowed – and in  some countries, reversed – over the last two decades (Psaki, McCarthy, and Mensch 2018), but  130 million girls remain out of school (UNESCO 2016 ).2 However, global averages mask the large  variation in gender inequality at the regional and national levels. In many countries, girls are still  more likely to be excluded from education (UNESCO 2016 ). Girls also complete less schooling  than  boys.  Gender  inequality  (favoring  boys)  in  primary  completion  remains  in  60  of  all  177  countries with available data (Figure 1A) and is more prominent in poor countries: 21 of the 25  countries with a gap larger than 5 percent are low‐ and lower middle‐income countries. For lower  secondary  education,  access  is  still  much  more  limited  for  both  boys  and  girls,  with  only  50  percent  of  girls  and  boys  finishing  lower  secondary  education  in  low  and  middle‐income                                                               2  The 130 million girls out of school include 32 million out of primary, 29 million out of lower secondary, and 69  million out of upper secondary.    2    countries.3 Even at these low overall levels, many countries see girls at a disadvantage relative to  boys (Figure 1B).   Even for those girls who are in school, many may not acquire the foundational cognitive skills to  help  them  thrive  in  their  future  lives.  Across  51  low‐  and  middle‐income  countries,  only  50  percent  of  young  adult  women  who  had  completed  grade  6  could  read  a  simple  sentence  (Sandefur, Oye, and Pritchett 2016). The persistence in attainment gaps and low achievement in  education  translates  into  girls  exiting  school  with  fewer  than  optimal  skills,  reinforcing  subsequent gaps in productive opportunities. Part of the solution is to ensure that girls get into  school and get the most out of their schooling.   At the same time, evidence on what works to improve the quality of education is accumulating  at an unprecedented rate (Figure 2). In recent years, hundreds of impact evaluations in low‐ and  middle‐income countries have demonstrated the effectiveness – or lack thereof – of a range of  interventions at improving education outcomes, for girls and boys (Evans and Popova 2016; J‐ PAL 2017). Reviews that examine the most effective ways to boost girls’ education tend to focus  on interventions that target girls – for example, building girls’ latrines at schools and providing  scholarships  for  girls  (Filmer  and  Schady  2008;  Garn  et  al.  2013)  –  potentially  missing  large  educational benefits for girls from interventions that are not gender‐specific.   Consider two interventions: Intervention 1 targets girls and is effective for girls but not for boys  –  for  example,  providing  scholarships  targeted  to  high‐performing  girls.  Intervention  2  is  a  general education intervention, which is much more effective for girls than Intervention 1, but  the effects are roughly equal for boys and girls – for example, training teachers in an innovative  way.  In  this  case  the  most  effective  intervention  for  improving  girls’  education  is  the  general  education intervention (Figure 3). The fact that it also benefits boys does not take away from the  fact  that  it  is  the  most  effective  intervention  for  girls.  However,  the  published  evaluation  of  Intervention  2  would  likely  not  emphasize  girls’  education  or  gender  effects,  as  there  are  no  differential effects for girls. In fact, the evaluation may not even report gender impacts separately.   Now consider two concrete interventions that demonstrate the above hypothesis (Figure 3). A  merit scholarship program for girls in Kenya increased girls’ learning by 0.19 standard deviations  and  had  small,  positive  spillovers  for  boys  (Kremer,  Miguel,  and  Thornton  2009).  Another  intervention – in Bangladesh – encouraged parents to attend monthly meetings with teachers to  go over their child’s school performance. That intervention improved learning outcomes by 0.25  standard deviations for both girls and boys, with no statistically significant difference between  them  (Islam  2019).  The  general  intervention  (parent‐teacher  meetings)  was  more  effective  at  increasing girls’ learning than the girl‐targeted merit scholarship program. But it would likely be  omitted in any review of the most effective interventions for girls because the study does not  specifically target girls; and since the differences by gender are small, they do not come up in the  title, the abstract, or the introduction of the paper. A traditional review of the best investments  for  girls,  searching  for  studies  with  keywords  like  “girls”  and  “gender,”  could  miss  the  best  investments for girls.                                                                3  In education systems with high levels of attainment, the education gap can flip to disadvantage boy students  (Psaki, McCarthy, and Mensch 2018).  3    In  this  paper,  we  report  the  results  of  an  innovative  systematic  review  identifying  the  most  effective interventions to improve girls’ access to education and learning outcomes within an  evidence  base  that  includes  both  girl‐targeted  and  general  education  interventions.  We  pose  three research questions: (1) Are girl‐targeted interventions more effective for girls’ outcomes  than general interventions? (2) For general, non‐targeted interventions, do impacts on girls tend  to be larger? and (3) In absolute terms, what are the most effective interventions for girls?   To answer these questions, we collected and reexamined a large database of education studies  with access or learning outcomes for students. We categorized the studies as either evaluating  girl‐targeted or non‐targeted (i.e., general) interventions and identified all studies that reported  gender‐differentiated impacts. Only one in three studies of interventions not targeted to girls  report  disaggregated  impacts  by  gender,  so  a  first  implication  of  this  work  is  that  in  order  to  understand how best to improve girls' education, studies should consistently report impacts for  girls.  For  those  studies  that  did  not  report  gender  differentiated  impacts,  we  contacted  their  authors asking them either to run the additional gender differentiated analysis or to share the  data with us. We then standardized the effects of different programs to ensure comparability of  effect sizes across studies. Ultimately, we synthesized the effects for girls from 177 studies. (The  full list of studies is available in Appendix A.)   We find that general, non‐targeted interventions perform similarly to girl‐targeted interventions  on  average  to  increase  both  girls’  access  to  school  and  their  learning  in  school.  General  interventions tend to have similar effects for girls and for boys. (The evidence suggests that if  anything,  girls  benefit  more  from  general  interventions,  although  the  differences  are  not  statistically  significant.)  In  examining  the  most  and  least  effective  interventions  for  girls’  education, we find that girls’ access to school is more responsive to changes in costs, distance,  and health conditions; while girls’ learning is more likely to be improved by structured pedagogy  and interventions that help teachers to teach at the right level. Later in the paper, we discuss the  implications for inequality between boys and girls and cost‐effectiveness of programs.   General, non‐targeted interventions may be more politically palatable for scaling up, and they  offer  a  wider  array  of  evaluated  interventions,  giving  policy  makers  a  richer  menu  of  options  among  non‐targeted  interventions  to  improve  girls’  education.  In  countries  where  boys  also  struggle  to  achieve  quality  education,  general  interventions  can  simultaneously  improve  girls’  learning while benefitting boys as well. None of this suggests that programs will not benefit from  considering gender issues in their design. Furthermore, many of the interventions included in this  review focus on primary education, and as girls reach adolescence, they may face more gender‐ specific  constraints.  But  for  achieving  access  and  quality,  especially  in  primary  education,  specifically  targeting  girls  may  not  always  be  necessary  to  help  those  girls  succeed.  If  policy  makers  want  to  help  girls  learn,  they  can  make  schools  better  for  all  children.  Furthermore,  programs can be mindful of gender issues without being specifically targeted to girls.   2. Literature review: The missing evidence   Various researchers have undertaken systematic reviews of evidence on what works to improve  girls’ education. For example, Sperling and Winthrop (2015) – building on Herz and Sperling (2004)  – summarize eight recent reviews of education impact evaluations and provide a catalogue of  4    information about practices and programs that improve girls’ access and learning. Unterhalter et  al. (2014) conduct a systematic review of education programs that target girls. Tembon and Fort  (2008) document effective polices in six low‐ and middle‐income countries to promote gender  equality. J‐PAL (2017) compares impacts by gender of programs – all evaluated by randomized  controlled trial – designed to increase school enrollment and attendance in 28 low‐ and middle‐ income  countries.  Other  reviews  focus  on  adolescent  girl  programs  that  may  also  impact  education  outcomes  (Haberland,  McCarthy,  and  Brady  2018;  Botea  et  al.  2017).  As  discussed  above, these reviews – with the exception of J‐PAL (2017) – search for studies that highlight girls’  education in the title, abstract, introduction, or in the characterization of the interventions, and  so they largely exclude non‐targeted interventions. For example, a common approach is to use  terms such as “girls” or “gender” in the search for relevant studies and then to identify lessons  learned from those studies, as do Unterhalter et al. (2014) and Haberland, McCarthy, and Brady  (2018).    In  addition,  all  the  reviews  except  J‐PAL  (2017)  and  Unterhalter  et  al.  (2014)  examine  the  evidence qualitatively, usually discussing study by study, and then infer conclusions. J‐PAL (2017)  focuses  only  on  access  outcomes  and  within  that,  only  on  randomized  controlled  trials.  Unterhalter et al. (2014) employs a form of vote‐counting.4 To the best of our knowledge, there  have been no systematic reviews that compare effect sizes quantitatively for both access and  learning  outcomes  for  girls’  education.  This  systematic  review  complements  the  existing  literature in two ways: first, it incorporates a wide range of general education interventions that  have not been included in previous studies of what works to improve girls’ learning and access  to education; second, it converts the point estimates of all included studies into standardized  effect sizes to allow easier comparison across studies.   3. Method  We  gathered  a  large  collection  of  studies  that  report  education  outcomes,  either  access  or  learning. For each of the studies, we identified whether or not they separately report impacts for  boys and girls. For studies that separately report impacts for boys and girls, we extract those data,  standardize the estimates, and use them to compare the impacts for boys versus girls and across  programs for girls. For studies that do not separately report, we contacted the authors and asked  them either to share the data or to provide the separate estimates themselves. In this section,  we report on each step in detail.      Literature search    We began with a comprehensive database of education impact evaluations compiled for Evans  and Popova (2016) and subsequently updated it. The database consists of 495 studies that were                                                               4  Vote counting consists of categorizing the results of studies by their results: negative and statistically significant,  negative and statistically insignificant, positive and statistically insignificant, and positive and significant. Evans and  Popova (2016)  includes a discussion of different types of systematic reviews and the respective advantages and  disadvantages.     5    cited in 10 recent systematic reviews of evidence on what works to improve learning and access  in low‐ and middle‐income countries.5 All the reviews were published or made publicly available  between  2013  and  2015  and  the  studies  included  were  conducted  between  1980  and  2015.  Another systematic review of interventions with a special focus on access outcomes came out in  2017 (J‐PAL 2017); its references added four studies to the database.     To  increase  the  coverage  of  studies  that  were  published  (either  as  working  papers  or  peer‐ reviewed  articles)  after  2015,  we  conducted  an  additional  literature  search  between  October  2017 and January 2018. We searched Google Scholar and the websites of major institutions that  conduct  research  related  to  low‐  and  middle‐income  countries  for  working  papers  that  were  published between 2015 and 2017 containing the keywords “evidence”, “education”, “access”,  “learning”,  “enrollment”,  “dropout”,  “attendance”,  or  “score”.  We  applied  the  same  search  terms  to  a  number  of  economics  and  education  journals,  listed  in  Appendix  B.  These  two  additional searches yielded 19 new studies. In total, we reviewed 518 papers.     Inclusion criteria    We included studies of education interventions (such as teacher professional development and  providing  textbooks),  health  interventions  (such  as  providing  deworming  drugs  and  micronutrients), and safety net interventions (such as cash transfers). We only included studies  that took place in preprimary, primary, and secondary schools in low‐ or middle‐income countries,  according  to  the  World  Bank  definition  (World  Bank  2017).  To  be  included  studies  had  to  be  published – either as a working paper or a journal article – between 1980 and 2017 and had to  report at least one of the following education outcomes: access outcomes (enrollment, dropout,  or attendance) or learning outcomes (composite test score or any subject score). Non‐academic  skill development programs for adolescents were not included.     We only included studies that used an experimental or quasi‐experimental design. To be included,  studies needed to have a valid counterfactual – in other words, a credible way of determining  what would have happened in the absence of the program. The ways that studies could construct  such  a  counterfactual  included  random  assignment  of  treatment,  difference‐in‐differences  analysis, regression discontinuity, instrumental variables, and propensity score matching. At the  same time, we restrict our analysis to studies where girls are included in the intervention group.     Data collection                                                                  5  The 10 reviews are: Conn (2014), Glewwe et al. (2014), Kremer et al. (2014), Krishnaratne et al. (2013), McEwan  (2015),  Murnane  and  Ganimian  (2014),  Asim  et  al.  (2015),  Masino  and  Niño‐Zarazúa  (2015),  Glewwe  and  Muralidharan (2015), and Snilstveit et al. (2015). Conn, Glewwe et al, McEwan, and Masino and Niño‐Zarazúa only  include studies with learning outcomes. The other reviews include studies with learning outcomes and studies with  access  outcomes.  The  database  is  available  at  https://sites.google.com/site/davidkevans/database‐of‐education‐ studies.    6    Upon  reviewing  the  518  identified  studies,  330  studies  met  the  inclusion  criteria.  We  further  divided these studies into two groups: girl‐targeted interventions and general interventions. Girl‐ targeted  interventions  include  any  intervention  that  is  explicitly  designed  to  boost  education  outcomes for girls specifically. For example, this includes programs that provide girls with cash  or in‐kind transfers, reduce tuition or other school costs for girls, offer (merit) scholarships to  girls, build latrines for girls in schools, reduce travel distance to schools for girls by building village  schools or providing transportation, provide female teachers, or implement girls’ empowerment  curricula  in  schools.  In  general,  if  the  program  either  specifically  targets  girls  for  benefits  or  explicitly  states  its  objective  as  improving  girls’  educational  outcomes,  we  count  it  as  “girl‐ targeted.”  In  our  sample,  we  identified  20  studies  designed  to  increase  access  or  learning  specifically for girls. The other 310 studies were general interventions.6    General interventions refer to programs that are gender neutral in their design. Examples include  programs  that  offer  computer‐assisted  learning  for  all  students,  provide  school  meals  for  all  students, and distribute free school uniforms or textbooks to all students. A general intervention  may disproportionately benefit girl students, but it is not explicitly designed to do so, nor is it  targeted specifically to girls.     To collect the impacts of interventions on girls for the 20 girl‐targeted studies, we used the results  on  girls  reported  in  the  studies.  For  general  interventions,  the  average  effect  reported  in  the  study covered an average across boys and girls, so we verified which studies also reported effects  separately. 105 studies reported heterogeneous intervention impacts by gender in their original  papers, and we incorporated those results in our review. However, that left 205 studies that did  not report gender differentiated impacts in their original papers. In order to enlarge our sample,  we contacted the authors of these studies up to three times between January 2018 and July 2018,  requesting  that  they  either  provide  additional  estimates  of  intervention  effects  by  gender  or  share the data of their studies with us to perform the analysis on their behalf. Authors were given  at least three months to reply to us with either new estimates or their data if they were interested.     Of the 205 studies, we received replies from the authors of 104 studies. Among them, the authors  of  32  studies  indicated  that  the  data  were  no  longer  available  or  that  gender  data  were  not  collected. Another 72 sets of authors expressed their willingness to run the additional analysis  (50 papers) or share their data with us (22 papers). By the end of July 2018, we were able to  obtain new estimates of effects by gender of 52 studies.     Figure  4  demonstrates  our  review  process.  Combining  girl‐targeted  interventions,  general  interventions that report impacts on girls and the new estimates we collected from authors, the  final  sample  of  this  review  consists  of  177  studies  evaluating  270  total  interventions.  Among  those studies, 85  measured access outcomes such as enrollment, attendance, or dropout; and  114 measured learning outcomes including a composite test score, math score, or language score.                                                               6  There are three general intervention studies that contain a girl‐targeted intervention arm, but for the purpose of  counting, but because the bulk of the benefits do not target girls, we include them in the general intervention  group.   7    Table 1A shows the descriptive statistics of our sample. Table 1B shows characteristics of the  evaluated interventions. For access, more than half of general interventions targeted children of  primary  school  age,  whereas  about  one‐fifth  of  girl‐targeted  interventions  targeted  girls  of  primary  school  age,  and  one‐third  focused  on  girls  of  secondary  school  age.  The  majority  of  general and girl‐targeted interventions took place in both urban and rural settings, and just over  half  of  the  interventions  had  just  one  component.  For  learning,  the  majority  of  general  interventions were implemented at the primary level and in both urban and rural areas. Seventy  percent  of  girl‐targeted  learning  interventions  took  place  in  rural  areas.  Sixty  percent  of  all  learning interventions had multiple components.       Coding of effect sizes     In this paper, our unit of analysis is the estimated impact of an intervention, where a group that  received an intervention is compared to another group that did not receive the intervention. For  studies with multiple treatment arms, we coded the impact of each treatment arm separately (as  its own intervention) and recorded the education outcomes corresponding to that intervention.  For example, Berlinski et al. (2016) tested the effects of four interventions or treatment arms: (1)  an  active  learning  approach  to  the  teaching  of  math,  (2)  an  active  learning  approach  plus  an  interactive white board, (3) an active learning approach plus a computer lab, and (4) an active  learning  approach  plus  one  computer  per  student.  We  coded  these  four  experiments  as  four  separate  interventions.  Furthermore,  if  studies  reported  multiple  estimates  for  a  given  intervention,  we  coded  all  of  those  estimates  separately  rather  than  creating  a  composite  variable.      Since studies in our sample collected different outcomes using different measures, in order to  compare  the  effectiveness  of  the  interventions  on  the  same  scale,  individual  point  estimates  need to be standardized. In this paper, we used Cohen’s  d  to standardize effect sizes, following  McEwan (2015) and Conn (2017).  Cohen’s  d can be estimated using the raw mean difference  between a treatment group ( ) and a control group ( ) as well as the pooled standard deviation  for the treatment and control groups combined ( ) (see Equation 1).7                                                                         (Equation 1)  In  cases  where  the  pooled  standard  deviation  was  not  directly  reported  in  the  study,  we  calculated it using Equation 2 from Borenstein et al. (2009):                                                      (Equation 2)                                                                 7  In this paper, wherever applicable, we collected the mean difference with controls for observable variables.   8    where   and   are the sample sizes in the treatment and control groups, and   and   are  the standard deviations in each group.     Qualitative variables     We collected a set of additional variables to better characterize the most effective interventions  for girls. The variables included country, region, implementation agency, location (rural or urban),  intervention  level  (village,  school,  household,  or  individual),  duration  of  intervention  (single  contact or repeated contact), number of intervention components (single or multiple), the level  of education at which the intervention was implemented (preprimary, primary, or secondary),  student age, major program components (such as reducing school costs, a health intervention,  additional  teaching  and  learning  materials,  or  school  grants),  the  presence  of  components  identified by program implementers as “girl friendly,” cost data (if any), quality of the outcome  data  (e.g.,  administrative  data,  self‐reported  data,  national  tests,  international  tests,  program  designed tests). For each study, we also coded its publication type and evaluation method.   4. Results  Are girl‐targeted interventions the most effective for girls?    In  terms  of  increasing  girls’  participation  in  school,  girl‐targeted  interventions  and  general  interventions perform similarly on average, although there are some girl‐targeted interventions  that outstrip general interventions. Figure 5 demonstrates the  distributions  of effect sizes for  girls from both general interventions and girl‐targeted interventions. The median effect size for   these  two  categories  is  very  similar,  increasing  girls’  enrollment  or  attendance  by  0.07‐0.09  standard  deviations.  The  effect  sizes  of  less  effective  interventions  –  at  the  10th  and  25th  percentiles – are also similar. However, the girl‐targeted interventions at the 90th percentile have  effect sizes that are 0.10 standard deviations larger than those of general interventions. That said,  there are also general interventions with large effect sizes. The effect size of the most effective  general intervention (Conditional cash transfer in South Africa, Eyal, Woolard, and Burns (2014))  –  1.66  standard  deviations  –  is  comparable  in  size  to  that  of  the  most  effective  girl‐targeted  intervention (Conditional cash transfer to girls in Malawi, Baird et al. (2016)), at 1.54 standard  deviations. None of these differences are statistically significant at standard levels (Table 2).     There are also far more general interventions than specifically girl‐targeted interventions. As we  see in Table 1A, the number of general interventions is more than three times that of girl‐targeted  interventions.  This  means  that  in  each  of  the  effect  size  bins,  general interventions  provide  a  larger menu for tested options (Figure 6). Even among the most effective interventions, there are  almost as many general interventions with large effect sizes (greater than 0.4 standard deviations)  because so many more general interventions have been tested. Therefore, general interventions  constitute an important source of ways to improve girls’ access to education.     For learning, on average, girl‐targeted and general interventions have comparable impacts on  girls (Figure 7). The median interventions increase learning by 0.12 and 0.13 standard deviations.  9    The top programs (90th percentile) of general interventions have slightly bigger measured effect  sizes  (0.52  standard  deviations)  than  those  of  girl‐targeted  interventions  (0.43  standard  deviations), although the differences are not statistically significant.     However, as with the access studies, the difference in the number of general interventions and  girl‐targeted  interventions  is  significant  (Figure  8).  This  is  even  more  the  case  in  learning  outcomes: there are 178 general learning interventions (from 106 studies) compared to only 14  girl‐targeted learning interventions (Table 1A). With just 14 girl‐targeted interventions (from 11  studies), the distribution of effect sizes might be affected by outliers: in fact, the large effect size  of  the  top  girl‐targeted  intervention  (at  the  90th  percentile)  is  purely  driven  by  a  school  construction  intervention  (Burde  and  Linden  2013;  Kazianga  et  al.  2013),  which  was  designed  specifically  to  increase  girls’  access  to  schools. 8  When  schools  were  built  in  villages  in  rural  Burkina Faso, learning outcomes for girls dramatically improved. But taking out this intervention,  the  effect  size  of  girl‐targeted  interventions  at  the  90th  percentile  drops  to  0.1  standard  deviations.  Alternatively,  if  one  drops  the  largest  two  interventions  from  the  general  interventions, the effect size changes hardly at all.     These findings have two potential implications. The first is that while general and girl‐targeted  interventions perform similarly on average, there are more proven general interventions that  deliver  high  impacts  for  girls’  learning  than  there  are  girl‐targeted  interventions.  As  a  result,  policy makers have more options to draw from among the general interventions. The second is  that  insofar  as  governments  and  other  actors  are  experimenting  with  innovative  girl‐targeted  interventions, there may be value in evaluating these to build the evidence base.     For general interventions, do impacts on girls tend to be larger?    Previous research shows that the demand for girls’ schooling tends to be more responsive than  that for boys’ to gender neutral education policies (Glick 2008; J‐PAL 2017). However, we do not  detect much difference between girls and boys in responding to interventions to increase access  at any point in the distribution – the least effective programs, the median programs, and the  most effective programs all have similar impacts in access for boys and girls (Figure 9). If anything,  general  interventions  seem  to  be  slightly  more  effective  for  girls  than  for  boys,  confirming  previous work.9     Once in school, the impacts of general interventions on learning outcomes are also quite similar  for girls and boys (Figure 10). Median interventions increased learning for girls and boys by 0.1  standard deviation for both, with slightly larger impacts for girls (Figure 10). At the top of the  distribution (90th percentile), the effect for boys is 0.51 standard deviation, comparable to that                                                               8  The Burkina Faso program, evaluated in (Kazianga et al. 2013), includes girls explicitly in the name of the  program: the Burkinabe Response to Improve Girls’ Chances to Succeed.   9  We also examine whether impacts on girls are larger in places with low levels of initial performance, using the  harmonized learning indicators from the World Bank’s Human Capital Index (World Bank 2018a) as well as various  access indicators from the World Development Indicators. We find no relationship.   10    for  girls,  at  0.52  standard  deviation.  None  of  these  differences  is  statistically  significant  at  standard levels (Table 2). These are sizeable effects which are the equivalent of more than 2.5  years of additional schooling in the business‐as‐usual setting in many low‐ and middle‐income  countries (Evans and Yuan 2019).    What are the most effective interventions for girls?    To summarize the most effective interventions for girls, in this section we present the 10 access  and learning interventions with the largest effect sizes and seek to understand their attributes.  We  contrast  these  with  the  10  least  effective  interventions  in  terms  of  access  and  learning  outcomes. An alternative approach would be to carry out a formal meta‐analysis: As the results  demonstrate, there is a great deal of variation within categories of interventions (such as cash  transfers),  such  that  taking  the  average  effect  of  a  category  is  unlikely  to  yield  meaningful  insights.10 Because we code each estimate of the impact of an intervention separately, the fact  that  one  estimate  appears  in  the  10  most  effective  or  least  effective  does  not  mean  that  all  estimates of the impact of that intervention are among the most or least effective.     Access  The 10 studies that report the largest impacts in improving access to education for girls report  greatly  improved  girls’  participation  in  school,  with  an  average  effect  size  of  0.74  standard  deviation (Table 3). Three of the 10 are girl‐targeted interventions, including cash transfers to  girls who had previously dropped out of school – conditional on school attendance in Malawi  (Baird et al. 2016), improving school water and sanitation systems in Kenya (Garn et al. 2013),  and providing private school subsidies for girls in Pakistan (Kim, Alderman, and Orazem 1999).  Six of the general interventions are similarly related to offering cash for education in different  countries (Eyal, Woolard, and Burns 2014; Maluccio, Murphy, and Regalia 2010; Edmonds and  Shrestha 2014; Benhassine et al. 2015; Duflo, Dupas, and Kremer 2017), building village schools  in  Afghanistan  (Burde  and  Linden  2013)  and  another  intervention  is  focused  on  malaria  prevention in The Gambia (Jukes et al. 2006). Altogether, six of the ten involve cash transfers,  and one more – subsidies in Pakistan – similarly also involves reducing the cost of schooling.     These top interventions demonstrate that reducing the cost of schooling is likely the single most  effective way to bring girls into school. Most of these are conditional cash transfers, although  fewer unconditional transfers have been tested. In addition, reducing indirect costs – such as the  commuting  distance  to  school  for  girls  by  building  village  schools  –  has  been  effective  in  increasing  access.  Note,  however,  that  one  unconditional  cash  transfer  –  without  a  schooling  condition – is among the less effective interventions (Table 4) (Baird, McIntosh, and Özler 2011).  Improving  health  conditions  through  either  better  sanitation  facilities  or  controlling  malaria  tends to attract more girls to school as well.                                                                  10  Analysis of previous meta‐analyses of education interventions suggests that high heterogeneity within categories  limits the predictive power of meta‐analysis in education (Masset 2019).  11    There  are  concerns  about  the  effectiveness  of  conditional  cash  transfer  programs  if  only  considering the most effective interventions. One of them is that the popularity of conditional  cash transfers has led to an emergence of impact evaluations in this field, which might lead this  class of interventions to be overrepresented in the evidence base. Cash transfer interventions  could be among both the most effective and the least effective interventions. To test this, we  summarize the bottom 10 interventions to increase access for girls in Table 4. There are three  transfer programs – conditional cash or in‐kind – that were particularly ineffective in bringing  girls into school, such as those in Burkina Faso (Kazianga et al. 2013), the Philippines (Chaudhury,  Friedman, and Onishi 2013) and Uruguay (Amarante, Ferrando, and Vigorito 2013), but transfer  programs represent far more of the most effective than the least effective programs. There is  more variation in the least effective programs, ranging from providing school meals to targeted  savings accounts for education. Interestingly, we see that within the same study (Garn et al. 2013),  while  promoting  hygiene,  improving  water  treatment,  improved  sanitation,  and  safe  water  storage in Kenyan primary schools is one of the best ways to increase girls’ enrollment, promoting  hygiene and improving water storage alone actually reduced enrollment for girls. Although it is  likely  that  girls  are  more  responsive  to  sanitation  conditions,  different  environments  face  different  challenges:  in  Nepal  providing  sanitary  products  did  not  increase  girls’  school  attendance, likely in part because very few girls reported missing school due to a lack of sanitary  products (Oster and Thornton 2011).     Learning   For learning, the average effect size of the top interventions for girls is 0.96 standard deviation  (Table 5). Compared to access interventions, there is more variation in the design of learning  interventions. First, only two in 10 studies are girl‐targeted interventions. One of the two girl‐ targeted interventions is a public private partnership initiative in schools in Pakistan providing a  gender  differentiated  subsidy  that  increased  girls’  test  score  by  0.77  standard  deviation.  The  other intervention arm in the same initiative provided a gender neutral subsidy and also yielded  sizeable effects, albeit smaller than the gender‐differentiated one (Barrera‐Osorio et al. 2017).  The other top‐ten girl‐targeted intervention is the Afghan village school program for girls that  delivered significant impacts on girls’ access and learning outcomes (Burde and Linden 2013). A  general  (non‐targeted)  community  school  program  in  Honduras  greatly  improved  girls’  math  score (Di Gropello and Marshall 2011).     Several of the most effective general interventions for girls among the top 10 involve structured  pedagogy in early grades, or providing teachers with clear guidance on teaching or even scripted  lesson plans. These interventions have been shown to be highly effective in several Sub‐Saharan  African countries including South Africa, Liberia and Kenya (Piper 2009; Piper, Zuilkowski, and  Ong’ele  2016;  Piper  and  Mugenda  2014;  Piper  and  Medina  2010a).  Another  category  of  interventions that work well for girls (and boys) are those that help teachers to teach children at  their current level of learning (e.g., teaching at the right level), either through diagnostic feedback  or software as reported in Banerjee et al. (2016) and Imbrogno (2014).     On the other hand, the least effective programs for girls’ learning are all general interventions  (Table 6). Various interventions actually had negative impacts on learning for girls compared to  12    “schooling‐as‐usual,” but often, those same programs did not work for boys either. For example,  technology interventions – whether substituting teachers with computers or providing students  with laptops – did not help improve learning (Linden 2008; Sharma 2014). Although there are  teacher professional development programs that work to improve student learning (Popova et  al. 2018), our findings demonstrate that introducing new pedagogical methods through a short  teacher training program is less likely to be effective to improve girls’ learning; and this is true no  matter which education level the intervention targets (Berlinski and Busso 2017; Yoshikawa et al.  2015). In addition, school accountability interventions such as distributing school report cards to  students and parents were not effective for girls, either in Sri Lanka or in Liberia (Aturupane et al.  2014; Piper and Medina 2010b).  5. Discussion  Inequality  Up until this point, this paper has focused on identifying the interventions that deliver the highest  absolute learning gains for girls. An alternative approach would be to identify those programs  that  benefit  girls  most  relative  to  boys.  In  other  words,  this  approach  would  focus  on  closing  inequalities (or increasing them, in contexts where girls are ahead in school) rather than merely  improving girls’ access and learning without regard to boys’ performance. Figure 11 shows the  gains in access and learning for boys and for girls. The programs with the most unequal impacts  – both favoring girls and favoring boys – are general interventions. Almost all of the girl‐targeted  interventions for which we have data on both girls and boys have similar results for both genders,  with slightly better results for girls. 11 in 20 girl‐targeted studies do not report outcomes for boys.  If  one’s  objective  were  purely  inequality  reduction,  then  cash  transfers  in  South  Africa  had  dramatically larger access impacts on girls than on boys, despite not being gender‐targeted (Eyal,  Woolard,  and  Burns  2014).  A  mother  tongue  learning  instruction  in  Kenya  in  the  Lubukusu  language  had  no  discernible  impact  on  boys’  learning  but  a  sizeable  impact  for  girls  (Piper,  Zuilkowski,  and  Ong’ele  2016).  However,  there  are  no  clear  patterns  as  to  which  classes  of  interventions are inequality enhancing versus inequality reducing. For this inequality analysis, we  drop girl‐targeted studies that do not report impacts for boys. If one were to assume that those  girl‐targeted studies that did not report outcomes for girls had zero impact on boys, then girl‐ targeted interventions would decrease inequality more than general interventions.     Costs  While we standardized effect sizes across interventions in this review, incorporating cost data  would enhance the analysis, as the most effective programs may not be the most cost‐effective  and therefore not easy to scale up. However, despite a strong demand for cost data, few studies  report them. McEwan (2015) in his review stated that 56 percent of studies reported no cost  details, and most of the rest reported minimal information. We encountered similar problems  when we tried to collect cost data. In addition, even when cost data are reported, they are often  not comparable due to different accounting methods. Taking an early childhood development  program in rural Mexico as an example, the cost per child estimated by World Bank researchers  was  $76  (Cárdenas,  Evans,  and  Holland  2015),  but  when  evaluated  by  another  group  of  researchers at Brookings, the cost per child almost doubled to $174‐$202 (Gustafsson‐Wright,  13    Boggild‐Jones, and Gardiner 2017). Ideally, a separate initiative would collect cost data following  a standard set of guidelines such as those laid out in Dhaliwal et al. (2013).    This  review  finds  that  general  interventions  are  often  comparable  in  impact  to  girl‐targeted  interventions in improving access to school and learning once at school. But if a policy maker’s  primary  concern  is  improving  girls’  education,  then  perhaps  investing  in  girl‐targeted  interventions would allow similar gains at much lower cost – i.e., just paying for the girls rather  than girls and boys. This argument plays out differently for access versus learning interventions.  For access interventions such as cash transfers, the cost could indeed be potentially reduced by  targeting only girls. Indeed, several of the most effective general interventions were cash transfer  programs  that  happened  to  not  target  girls  specifically.  One  could  imagine  replacing  those  programs  with  girl‐only  cash  transfer  programs  and  potentially  achieving  similar  gains.  For  learning interventions, such as structured pedagogy interventions, many are introduced at the  level of the school, so that in mixed‐gender schools, there is no clear cost gain to trying to limit  the impact to girls only.     Program attributes  We gathered data on a number of program attributes with the aim to provide more information  on the most effective programs. For example, the average program size of the most effective  access  interventions  is  262  students  and  for  learning  interventions,  is  556  students.  With  the  exception  of  the  cash  transfer  programs,  all  others  among  the  ten  most  and  least  effective  programs are pilot programs. This is a result of the fact that most interventions that are carefully  evaluated tend to be pilots. Therefore, we cannot from this sample infer whether or not pilot  programs are more effective than those that have been implemented at scale. Another attribute  that we examined was the level of education that the top programs targeted. In terms of access  interventions,  7  of  the  top  10  interventions  targeted  school‐aged  children  in  general,  often  between age 6 up to age 16 – working through the household rather than the school, trying to  get out‐of‐school children into school. For learning interventions, 9 in 10 focused on the primary  level, and half of them were designed to improve learning in grades 1‐3. There is great interest  in  programs  for  adolescent  girls,  but  many  of  those  programs  focus  on  building  life  skills  and  increasing earning capacity directly (see, for example, (Adoho et al. 2014; Bandiera et al. 2018;  Bandiera et al. 2019) rather than keeping girls in school and increasing their learning ability. In  many low‐ and middle‐income countries, children and youth can still significantly improve their  literacy and numeracy all through primary and secondary school (Evans and Yuan 2019), and so  there will be great value in continuing to evaluate programs and increase learning and access for  adolescents. We also examined if authors included any gender component in their interventions.  We found that besides girl‐targeted programs, only 1 general intervention in the top 20 had a  girl‐friendly component, which was to provide gender‐differentiated school subsidies (Barrera‐ Osorio et al. 2017).    What has been studied  A key limitation of this work is that it only surveys those interventions that have been evaluated.  One can imagine a wide array of girl‐targeted interventions that could still be tried or that have  14    been tried but not yet rigorously evaluated. In the context of strict budget constraints, having  clear data on the best investments among those interventions that have been evaluated can be  useful,  and  it  can  help  governments  and  other  education  stakeholders  to  avoid  investing  in  programs  that  have  proven  ineffective.  However,  it  should  not  stop  policy  makers  from  continuing to innovate and test new programs that relax constraints on girls’ access and learning.   6. Conclusion  Previous  reviews  of  what  works  to  improve  girls’  education  tend  to  focus  on  girl‐targeted  interventions.  That  approach  omits  key  evidence  of  the  impact  of  general  education  interventions on girls. This review innovatively brings together a large evidence base of general  interventions that report effects for girls. Based on 177 studies from 54 countries, this review  finds  that  girls’  access  to  school  is  more  responsive  to  changes  in  costs,  distance,  and  health  conditions;  while  girls’  learning  is  more  likely  to  be  improved  by  structured  pedagogy  and  interventions that help teachers to teach at the right level.     While this review focuses on girls’ education, the global learning crisis impoverishes both girls  and boys (World Bank 2018b). Our findings demonstrate that gender neutral interventions hold  great  promise  for  girls’  learning  as  well  as  for  boys.  Considering  the  limited  resources  that  education  systems  in  most  low‐  and  middle‐income  countries  possess,  the  most  practical  approach to help girls learn may be to make schools better for all children. Such an approach may  also be more politically palatable to voters than programs that restrict their benefits to girls.      Finally, attending school and acquiring learning are not the finish line for girls’ education. The  ultimate objective is that girls can empower themselves through education and achieve their life  aspirations.  To  this  point,  very  few  evaluations  have  included  either  long‐term  follow‐ups  or  these broader measures of well‐being. But gaining literacy and numeracy are the foundation for  positive longer term outcomes.       References   Adoho, Franck, Shubha Chakravarty, Jr. Korkoyah, Dala T., Mattias KA Lundberg, and Afia Tasneem.  2014. 'The Impact of an Adolescent Girls Employment Program. The EPAG Project in Liberia. ',  Policy Research Working Paper, The World Bank.  Amarante, Verónica, Mery Ferrando, and Andrea Vigorito. 2013. 'Teenage School Attendance and Cash  Transfers: An Impact Evaluation of PANES', Economía, 14: 61‐96.  Aturupane, Harsha, Paul Glewwe, Renato Ravina, Upul Sonnadara, and Suzanne Wisniewski. 2014. 'An  assessment of the impacts of Sri Lanka’s programme for school improvement and school report  card programme on students’ academic progress', The Journal of Development Studies, 50:  1647‐69.  Baird, Sarah J, Ephraim Chirwa, Jacobus De Hoop, and Berk Özler. 2016. 'Girl power: cash transfers and  adolescent welfare. Evidence from a cluster‐randomized experiment in Malawi', Chapter in  NBER book African Successes, Volume II: Human Capital (2016), Sebastian Edwards, Simon  Johnson, and David N. Weil, editors (p. 139 ‐ 164). University of Chicago Press.  15    Baird, Sarah, Craig McIntosh, and Berk Özler. 2011. 'Cash or condition? Evidence from a cash transfer  experiment', The Quarterly Journal of Economics, 126: 1709‐53.  Bandiera, Oriana, Niklas Buehren, Robin Burgess, Markus Goldstein, Selim Gulesci, Imran Rasul, and  Munshi Sulaiman. 2019. 'Women’s Empowerment in Action: Evidence from a Randomized  Control Trial in Africa', American Economic Journal: Applied Economics, Forthcoming.  Bandiera, Oriana, Niklas Buehren, Markus Goldstein, Imran Rasul, and Andrea Smurra. 2018. 'The  Economic Lives of Young Women in the Time of Ebola: Lessons from an Empowerment  Program', Unpublished Manuscript.  Banerjee, Abhijit, Rukmini Banerji, James  Berry, Esther Duflo, Harini Kannan, Shobhini Mukerji, Marc  Shotland, and Michael  Walton. 2016. 'Mainstreaming an Effective Intervention: Evidence form  Randomized Evaluations of "Teaching at the Right Level" in India', National Bureau of Economic  Research Working Paper No. 22746.  Barrera‐Osorio, Felipe, David S Blakeslee, Matthew Hoover, Leigh L Linden, Dhushyanth Raju, and  Stephen P Ryan. 2017. 'Delivering education to the underserved through a public‐private  partnership program in Pakistan', World Bank Policy Research Working Paper No.8177.  Benhassine, Najy, Florencia Devoto, Esther Duflo, Pascaline Dupas, and Victor Pouliquen. 2015. 'Turning  a shove into a nudge? A" labeled cash transfer" for education', American Economic Journal:  Economic Policy, 7: 86‐125.  Berlinski, Samuel, and Matias Busso. 2017. 'Challenges in educational reform: An experiment on active  learning in mathematics', Economics Letters, 156: 172‐75.  Berlinski, Samuel, Matias Busso, Taryn Dinkelman, and Claudia Martinez. 2016. 'Reducing parent‐school  information gaps and improving education outcomes: Evidence from high frequency text  messaging in Chile', Unpublished Manuscript.  Botea, Ioana, Shubha Chakravarty, Sarah Haddock, and Quentin Wodon. 2017. "Ending Child Marriage:  Reproductive Health Outcomes and Delaying Marriage and Childbearing for Adolescent Girls "  In.  Burde, Dana, and Leigh L Linden. 2013. 'Bringing education to Afghan girls: A randomized controlled trial  of village‐based schools', American Economic Journal: Applied Economics, 5: 27‐40.  Cárdenas, Sergio, David K Evans, and Peter Holland. 2015. 'Early Childhood Benefits at Low Cost:  Evidence from a Randomized Trial in Mexico ', Unpublished Manuscript.  Castro Martin, Teresa. 1995. 'Women’s Education and Fertility: Results from 26 Demographic and Health  Surveys', Studies in Family Planning, 26: 187‐202.  Chaudhury, Nazmul, Jed Friedman, and Junko Onishi. 2013. 'Philippines conditional cash transfer  program impact evaluation 2012', Manila: World Bank Report.  Conn, Katharine M. 2017. 'Identifying effective education interventions in sub‐Saharan Africa: A meta‐ analysis of impact evaluations', Review of Educational Research, 87: 863‐98.  Dhaliwal, Iqbal, Esther Duflo, Rachel Glennerster, and Caitlin Tulloch. 2013. 'Comparative cost‐ effectiveness analysis to inform policy in developing countries: a general framework with  applications for education', Education Policy in Developing Countries: 285‐338.  Di Gropello, Emanuela, and Jeffery H Marshall. 2011. 'Decentralization and educational performance:  evidence from the PROHECO Community School Program in rural Honduras', Education  Economics, 19: 161‐80.  Duflo, Esther, Pascaline Dupas, and Michael Kremer. 2017. 'The impact of free secondary education:  Experimental evidence from Ghana', Massachusetts Institute of Technology Working Paper  Cambridge, MA.  Edmonds, Eric V, and Maheshwor Shrestha. 2014. 'You get what you pay for: Schooling incentives and  child labor', Journal of Development Economics, 111: 196‐211.  16    Ermisch, John, and Marco Francesconi. 2001. 'Family matters: Impacts of family background on  educational attainments', Economica, 68: 137‐56.  Evans, David K, and Fei Yuan. 2019. 'Economic Returns to Interventions that Increase Learning ', Policy  Research Working Paper, The World Bank.  Evans, David K., and Anna Popova. 2016. 'What really works to improve learning in developing  countries? An analysis of divergent findings in systematic reviews', World Bank Research  Observer, 31: 242‐70.  Eyal, Katherine, Ingrid Woolard, and Justine Burns. 2014. 'Cash transfers and teen education: evidence  from South Africa', Report, unpublished.  Field, Erica, and Attila Ambrus. 2008. 'Early Marriage, Age of Menarche, and Female Schooling  Attainment in Bangladesh', Journal of Political Economy, 116: 881‐930.  Filmer, Deon, and Norbert Schady. 2008. 'Getting girls into school: Evidence from a scholarship program  in Cambodia', Economic Development and Cultural Change, 56: 581‐617.  Gakidou, Emmanuela, Krycia Cowling, Rafael Lozano, and Christopher JL Murray. 2010. 'Increased  educational attainment and its effect on child mortality in 175 countries between 1970 and  2009: a systematic analysis', The Lancet, 376: 959‐74.  Garn, Joshua V, Leslie E Greene, Robert Dreibelbis, Shadi Saboori, Richard D Rheingans, and Matthew C  Freeman. 2013. 'A cluster‐randomized trial assessing the impact of school water, sanitation and  hygiene improvements on pupil enrolment and gender parity in enrolment', Journal of Water  Sanitation and Hygiene for Development, 3: 592‐601.  Glick, Peter. 2008. 'What policies will reduce gender schooling gaps in developing countries: Evidence  and interpretation', World Development, 36: 1623‐46.  Gustafsson‐Wright, Emily, Izzy Boggild‐Jones, and Sophie Gardiner. 2017. 'SECT: The standardized early  childhood development costing tool'.  Haberland, Nicole A, Katharine J McCarthy, and Martha Brady. 2018. 'A systematic review of adolescent  girl program implementation in low‐and middle‐income countries: evidence gaps and insights',  Journal of Adolescent Health.  Herz, Barbara, and Gene B Sperling. 2004. What works in girls' education: Evidence and policies from the  developing world (Council on foreign relations).  ILO. 2017. 'World Employment and Social Outlook: Trends for Women 2017'.  Imbrogno, Jason. 2014. 'Essays on the Economics of Education'.  International Initiative for Impact Evaluation (3ie). 2016. "Impact Evaluation Repository." In.  Islam, Asad. 2019. 'Parent–teacher meetings and student outcomes: Evidence from a developing  country', European Economic Review, 111: 273‐304.  J‐PAL. 2017. 'Roll Call: Getting Children into School ', J‐PAL Policy Bulletin.  Jukes, Matthew CH, Margaret Pinder, Elena L Grigorenko, Helen Baños Smith, Gijs Walraven, Elisa Meier  Bariau, Robert J Sternberg, Lesley J Drake, Paul Milligan, and Yin Bun Cheung. 2006. 'Long‐term  impact of malaria chemoprophylaxis on cognitive abilities and educational attainment: follow‐up  of a controlled trial', PLoS clinical trials, 1: e19.  Kazianga, Harounan, Dan Levy, Leigh L. Linden, and Matt Sloan. 2013. 'The Effects of "Girl‐Friendly"  Schools: Evidence from the BRIGHT School Construction Program in Burkina Faso ', American  Economic Journal: Applied Economics, 5: 41‐62.  Kim, Jooseop, Harold Alderman, and Peter F Orazem. 1999. 'Can private school subsidies increase  enrollment for the poor? The Quetta Urban Fellowship Program', The World Bank Economic  Review, 13: 443‐65.  King, Elizabeth, and Rebecca Winthrop. 2015. 'Today's challenges for girls' education', Brookings Global  Working Paper Series.  17    Kremer, Michael, Edward Miguel, and Rebecca Thornton. 2009. 'Incentives to learn', The Review of  Economics and Statistics, 91: 437‐56.  Linden, Leigh L. 2008. 'Complement or substitute?: The effect of technology on student achievement in  India', Working Paper.  Maluccio, John A, Alexis Murphy, and Ferdinando Regalia. 2010. 'Does supply matter? Initial schooling  conditions and the effectiveness of conditional cash transfers for grade progression in  Nicaragua', Journal of development effectiveness, 2: 87‐116.  Masset, Edoardo. 2019. "Impossible generalisations: meta‐analyses of education interventions in  international development." In RISE Annual Conference 2019. Washington, DC.  McEwan, Patrick J. 2015. 'Improving Learning in Primary Schools of Developing Countries: A Meta‐ Analysis of Randomized Experiments ', Review of Educational Research, 85: 353‐94.  Oster, Emily, and Rebecca Thornton. 2011. 'Menstruation, sanitary products, and school attendance:  Evidence from a randomized evaluation', American Economic Journal: Applied Economics, 3: 91‐ 100.  Piper, B, and A Mugenda. 2014. "The Primary Math and Reading (PRIMR) Initiative: Endline Impact  Evaluation." In. RTI International, Research Triangle Park, NC. .  Piper, Benjamin. 2009. "Integrated Education Program: Impact study of SMRS using early grade reading  assessment in three provinces in South Africa." In. RTI International, Research Triangle Park,  NC. .  Piper, Benjamin, and Korda Medina. 2010a. "Early Grade Reading Assessment (EGRA) Plus: Liberia.  Program evaluation report." In.: Research Triangle Park, NC: RTI International.  ———. 2010b. 'Early Grade Reading Assessment (EGRA) Plus: Liberia. Program evaluation report'.  Piper, Benjamin, Stephanie S Zuilkowski, and Salome Ong’ele. 2016. 'Implementing Mother Tongue  Instruction in the Real World: Results from a Medium‐Scale Randomized Controlled Trial in  Kenya', Comparative Education Review, 60: 776‐807.  Popova, Anna, David K Evans, Mary E. Breeding, and Violeta Arancibia. 2018. 'Global Landscape of  Teacher Professional Development Programs: The Gap between Evidence and Practice '.  Psaki, Stephanie R., Katharine J McCarthy, and Barbara S. Mensch. 2018. 'Measuring Gender Equality in  Education: Lessons from Trends in 43 Countries', Population and Development Review, 1: 117‐ 42.  Sandefur, Justin, Mari Oye, and Lant Pritchett. 2016. 'Girls' Schooling is Good, Girls' Schooling with  Learning is Better', Background paper for the International Commission on Financing Global  Education Opportunity.  Schultz, T. Paul. 2002. 'Why Governments Should Invest More to Educate Girls', World Development, 30:  207‐25.  Sharma, Uttam. 2014. "Can computers increase human capital in developing countries? An evaluation of  Nepal’s one laptop per child program." In Annual Meeting of the Agricultural and Applied  Economics Association, Minneapolis MN, July, 27‐29.  Sperling, Gene B, and Rebecca Winthrop. 2015. What works in girls' education: Evidence for the world's  best investment (Brookings Institution Press).  Tembon, Mercy Miyang, and Lucia Fort. 2008. Girl's education in the 21st century: Gender equality,  empowerment and growth (The World Bank).  UNESCO. 2016 'Leaving no one behind: How far on the way to universal primary and secondary  education?', Policy Paper 27/Fact Sheet 37.  Unterhalter, Elaine, Amy North, Madeleine Arnot, Cynthia Lloyd, Lebo Moletsane, Erin Murphy‐Graham,  Jenny Parkes, and Mioko Saito. 2014. "Interventions to enhance girls’ education and gender  equality." In.  World Bank. 2017. 'World Development Indicators '.  18    ———. 2018a. "Human Capital Project." In.  ———. 2018b. World Development Report 2018: Learning to Realize Education's Promise (World Bank:  Washington, DC).  Yoshikawa, Hirokazu, Diana Leyva, Catherine E Snow, Ernesto Treviño, M Barata, Christina Weiland, Celia  J Gomez, Lorenzo Moreno, Andrea Rolla, and Nikhit D'Sa. 2015. 'Experimental impacts of a  teacher professional development program in Chile on preschool classroom quality and child  outcomes', Developmental psychology, 51: 309.          Figures and tables     19    Figure 1A: Gender gap in primary school completion    Note: Any gap within three percent is considered as gender parity.     Figure 1B: Gender gap in lower secondary school completion    Note: Any gap within three percent is considered as gender parity.         20    Figure 2: Evidence on what works in education has mushroomed     Access  Learning  250 300 Number of cumulative studies Number of cumulative studies 200 250 200 150 150 100 100 50 50 0 0 1981 1992 1998 2001 2004 2007 2010 2013 2016 1981 1992 1998 2001 2004 2007 2010 2013 2016 Source: Authors’ adaptation using International Initiative for Impact Evaluation (3ie) (2016) and Evans and Popova  (2016).        Figure 3: Interventions not targeted specifically to girls may in fact deliver bigger gains to girls   A thought experiment  0.6 0.5 (standard deviations) Increased learning  0.4 0.3 0.2 0.1 0 Girls Boys Girls Boys Girl‐targeted intervention General education intervention     Two real‐life examples  21    0.3 (standard deviations) 0.25 Increased learning  0.2 0.15 0.1 0.05 0 Girls Boys Girls Boys Girl‐targeted intervention: Incentives to General education intervention: Parent‐ Learn , Kenya (Kremer, Miguel and teacher meetings and student outcomes, Thornton 2009) Bangladesh (Islam, 2016)         Figure 4: Review method     Impact Evaluations of Educational Interventions from a recent database    (Evans and Popova 2016 and 3ie 2017 and miscellany)  [330 studies]    Without gender‐differentiated impacts  [205 studies]  General    Girl‐targeted  interventions  interventions  with gender‐   differentiated   [20 studies]  Authors provide new estimates (43 studies)  impacts    OR we run the regression using shared data  [105 studies]  (9 studies)  [52 studies]  Extract point estimates and calculate effect sizes for 270 interventions from 177 studies     22    Figure 5: Effect sizes of access outcomes for girls       10th  25th  50th  75th  90th  Range  General   ‐0.03  0.01  0.07  0.15  0.27  [‐0.2, 1.66]  Girl‐targeted   ‐0.05  0.03  0.09  0.23  0.37  [‐0.18, 1.54]      Figure 6: Number of access outcomes by effect size   General interventions                Girl‐targeted interventions  16 15 80 73 14 70 Number of studies Number of studies 12 60 10 50 37 8 40 32 6 6 25 6 5 30 20 4 3 10 10 2 0 0 <0 0‐0.1 0.1‐0.2 0.2‐0.4 >0.4 <0 0‐0.1 0.1‐0.2 0.2‐0.4 >0.4 Effect size  Effect size   Figure 7: Effect sizes of learning outcomes for girls       10th  25th  50th  75th  90th  Range  General   ‐0.04  0.02  0.12  0.27  0.52  [‐0.61, 2.56]  Girl‐targeted   ‐0.01  0.03  0.13  0.23  0.43  [‐0.03, 0.45]      23    Figure 8: Number of learning outcomes by effect size     General interventions  Girl‐targeted interventions  8 140 124 7 7 120 6 Number of studies Number of studies 95 6 100 79 75 5 80 4 56 4 3 3 60 3 40 2 20 1 0 0 <0 0‐0.1 0.1‐0.2 0.2‐0.4 >0.4 <0 0‐0.1 0.1‐0.2 0.2‐0.4 >0.4 Effect size Effect size     Figure 9: Effect sizes of access outcomes for girls and boys (general interventions only)        10th  25th  50th  75th  90th  Range  Girls  ‐0.03  0.01  0.07  0.15  0.27  [‐0.20, 1.66]  Boys   ‐0.04  0.02  0.05  0.13  0.26  [‐0.14, 1.11]    24    Figure 10: Effect sizes of learning outcomes for girls and boys (general interventions only)       10th  25th  50th  75th  90th  Range  Girls   ‐0.04  0.02  0.12  0.27  0.52  [‐0.61, 2.56]  Boys   ‐0.06  0.01  0.10  0.25  0.51  [‐0.59, 1.98]      Figure 11:  Relative effect sizes for boys versus girls    Note:  Blue  points  represent  effect  sizes  of  general  interventions,  red  dots  represent  effects  sizes  of  girl‐ targeted  interventions,  and  the  green  dash  line  represents  same  effect  sizes  for  girls  and  boys.  For  access  outcomes, 172 effect sizes of general interventions and 12 (out of 35) effect sizes of girl‐targeted interventions  are plotted; for learning outcomes, 420 effect sizes of general interventions and 7 (out of 23) effect sizes of  girl‐targeted interventions are plotted. The missing girl‐targeted interventions are those that did not report  outcomes for boys.   25    Table 1A: Descriptive statistics of the overall sample    Number of studies  Number of interventions  General studies  157  239  General studies – Access  69  95  General studies – Learning   106  178        Girl‐targeted studies   20  31  Girl‐targeted studies – Access  18  26  Girl‐targeted studies – Learning   11  14  Total  177  270  Note: Access and learning do not sum to the total because multiple studies report both learning and access outcomes.     Table 1B: Descriptive statistics of evaluated programs    All interventions  General interventions  Girl‐targeted interventions  Access  Education level         Primary   56 (47%)  50 (53%)  6 (23%)  Secondary (lower and/or upper)  18 (15%)  9 (9%)  9 (35%)  Both primary and secondary   27 (23%)  20 (21%)  9 (35%)  Other  18 (15%)  16 (17%)  2 (8%)  Location        Urban  13 (11%)  11(12%)  2 (8%)  Rural   39 (32%)  31 (33%)  8 (31%)  Both  69 (57%)  53 (56%)  16 (62%)  Components        Single   66 (55%)  51 (54%)  15 (58%)  Multiple  55 (45%)  44 (46%)  11 (42%)  Learning   Education level         Primary   124 (65%)  118 (66%)  6 (43%)  26    Secondary  30 (16%)  30 (17%)  0 (0%)  Both primary and secondary   24 (13%)  16 (9%)  8 (57%)  Other  14 (7%)  14 (8%)  0 (0%)  Location        Urban  22 (11%)  22 (12%)  0 (0%)  Rural   74 (39%)  64 (36%)  10 (71%)  Both  96 (50%)  92 (52%)  4 (29%)  Components        Single   80 (42%)  74 (42%)  6 (43%)  Multiple  112 (58%)  104 (58%)  8 (57%)    Table 2: Tests for statistically significant differences in distribution of intervention effect sizes  Access outcomes    Mean  Mean within 50th – 75th percentile  Mean from 90th percentile and above  Girl‐targeted vs. General interventions  Girl‐targeted  0.048  0.037***  0.228  (0.039)  (0.012)  (0.200)  Constant  0.111***  0.106***  0.519***  N  212  52  22  Girls vs. Boys   Girl  0.033*  0.031***  0.142  (0.019)  (0.005)  (0.100)  Constant  0.086***  0.079***  0.423***  N  400  100  40  Learning outcomes    Mean  50th – 75th percentile  90th percentile and above  Girl‐targeted vs. General interventions  Girl‐targeted  ‐0.027  0.020  ‐0.404  (0.064)  (0.018)  (0.242)  Constant  0.184***  0.190***  0.853*  N  452  117  47  27    Girls vs. Boys in general interventions  Girls  0.010  0.019***  0.020  (0.019)  (0.006)  (0.077)  Constant  0.173***  0.171***  0.826***  N  879  222  87  Standard errors in parentheses  *** p<0.01, ** p<0.05, * p<0.1       Table 3: The 10 most effective interventions to improve access to education for girls     Evaluation  Effect size  Type of  Program description  Country  Region  Outcome  Reference  design  (SD)  publication  Conditional cash  Eyal, Woolard,  1  South Africa  SSA  DID  Enrollment  1.657  Working paper  transfer  & Burns 2014  Conditional cash  Baird et al.  2*  transfer for dropped  Malawi  SSA  RCT  Enrollment, Yr 2  1.536  Working paper  2016  out girls  Conditional cash  Enrollment, Yr 1  0.883  Maluccio et al.  3  Nicaragua  LAC  DID  Journal  transfer  Enrollment, Yr 2  0.617  2010  Hygiene promotion +  water treatment +  Garn et al.  4*  Kenya  SSA  RCT  Enrollment  0.634  Journal  sanitation + water  2013  supply  Free secondary  Duflo et al.  5  Ghana  SSA  RCT  Enrollment   0.634  Working paper  education  2017  Enrollment –  cohort w/o  0.555  Journal  contamination  Jukes et al.  6  Malaria prevention  Gambia  SSA  RCT  Enrollment –  2006  cohort w/ minimal  0.457    contamination  28    Conditional cash  Edmonds and  7  transfer: school  Nepal  SA  RCT  Attendance rate   0.517  Journal  Shrestha 2014  stipend  0.486  Labelled cash transfer  Dropped out by  Benhassine et  8  Morocco  MENA  RCT  (abs.  Journal  for education  the end of year 2  al. 2015  value)  Burde &  9  Village‐based school  Afghanistan  SA  RCT  Enrollment  0.478  Journal  Linden 2013  Private school  10*  Pakistan  SA  RCT  Enrollment  0.441  Journal  Kim et al. 1999  subsidies for girls   Note: Interventions marked with an asterisk are girl‐targeted.     Table 4: The 10 least effective interventions to improve access to education for girls   Evaluation  Effect size  Type of    Program description  Country  Region  Outcome  Reference  design  (SD)  publication  School canteen  Absenteeism  ‐0.200  Kazianga et  1  *Conditional take‐ Burkina Faso  SSA  RCT  Journal  Absenteeism  ‐0.182  al. 2012  home rations for girls  Unconditional cash  Baird et al.  2*  Malawi  SSA  RCT  Attendance, Yr2  ‐0.152  Journal  transfer to girls  2011  Early financial  3*  China  EAP  RCT  Dropout  ‐0.1401  Journal   Yi et al. 2015  commitment  Hygiene promotion +  Garn et al.  4*  Kenya  SSA  RCT  Enrollment  ‐0.138  Journal  water treatment  2013  5  School meal  India  SA  DID  Enrollment  ‐0.120  Journal  Afridi 2011  Enrollment Y1  ‐0.110  Education cash saving  Attendance overall  ‐0.107  Working  account with parent  paper  outreach  Enrollment Y2  ‐0.107  Karlan and  6  Uganda  SSA  RCT  Leiden 2014  Education cash saving  account without  Enrollment Y1  ‐0.049    parent outreach  29    Conditional cash  Enrolled in school 15‐ Evaluation  Chaudhury et  7  Philippines  EAP  RCT  ‐0.098  transfer  17 yrs  report  al. 2013  Oster and  8*  Sanitary products  Nepal  SA  RCT  Attendance  ‐0.083  Journal  Thornton  2011  School attendance,  ‐0.056  Journal  18‐month follow up  Conditional cash  Amarante et  9  Uruguay  LAC  DID  transfer  al. 2013  School attendance,  ‐0.047    30‐month follow up  Unconditional Cash  Working  10  South Africa  SSA  DID  Attendance  ‐0.043  Santana 2008  Transfer  Paper  Note: Interventions marked with an asterisk are girl‐targeted.   1  Adjusted negative value for comparison.     Table 5: The 10 most effective interventions to improve learning for girls     Program  Evaluation  Effect  Type of  Country  Region  Outcome  Reference  description  design  size (SD)  publication  Letter sounding fluency  2.563  Word naming fluency  1.840  Literacy  SSA  Evaluation  1  South Africa  DID  Piper 2009  intervention    report  Reading comprehension  1.757  Oral reading fluency  1.658  Reading comprehension,  1.36  Journal  Lubukusu, class 1  Mother tongue  Piper et al.  2  Kenya  SSA  RCT  instruction  2016  Reading comprehension,  1.25    Kikamba, class 2  30     TaRL 10‐day Camp1  Language  1.050   TaRL 10‐day Camp  Math  0.870  Working  Banerjee et al.  3  India  SA  RCT  paper  2016   TaRL 20‐day Camp  Language  0.830   TaRL 20‐day Camp  Math  0.730  Listening comprehension  1.030  Reading comprehension  0.830  Structured  Evaluation  Piper & Korda  4  Liberia  SSA  DID  pedagogy  report  2011  Unfamiliar word fluency  0.780  Letter‐naming fluency  0.680  Oral reading fluency  0.680  English letter sound  0.845  Piper &  Primary literacy  Evaluation  5  Kenya  SSA  RCT  English segmenting  0.690  Mugenda  intervention  report  Kiswahili letter sound  0.646  2014  *PPP gender subsidy  Test score  0.770  Working  Barrera‐Osorio  6  PPP subsidy pooled  Pakistan  SA  RCT  Test score  0.661  paper  et al. 2017  PPP uniform subsidy  Test score  0.655  Test score ‐ 2nd  0.661  Village‐based  semester  Burde &  7*  Afghanistan  SA  RCT  Journal  schools    Linden 2013  Test score ‐ 1st semester  0.654  Working  Imbrogno  8  Math tutor software  Mexico  LAC  RCT  Test scores  0.660  paper  2014  Community School  Di Gropello &  9  Honduras  LAC  IV  Math  0.630  Journal  Program  Marshall 2011  31    Working  Imbrogno  10  Math tutor software  Chile  LAC  RCT  Test scores  0.611  paper  2014  Note: Interventions marked with an asterisk are girl‐targeted.  1  TaRL: Teaching at the Right Level     Table 6: The 10 least effective interventions to improve learning for girls   Evaluation  Effect size  Type of    Program description  Country  Region  Outcome  Reference  design  (SD)  publication  Computer assisted  Working  1  India  SA  RCT  Math and English  ‐0.613  Linden 2008  learning in school  Paper  Test score (district  Glewwe and  2  School management  Madagascar  SSA  RCT  ‐0.403  Journal   level intervention)  Maiga 2011  New curriculum +  Math‐geometry  ‐0.378  OLPC  New curriculum +  Math‐geometry  ‐0.216  Berlinski and  3  computer lab  Costa Rica  LAC  RCT  Journal  Busso 2017  New curriculum  Math‐geometry  ‐0.142  New curriculum +  Math‐geometry  ‐0.136  white board  Yoshikawa et al.  4  Teacher training  Chile  LAC  RCT  Vocabulary  ‐0.305  Journal  2015  Working  5  One Laptop per Child  Nepal  SA  DID  English  ‐0.244  Sharma 2014  paper  Mobile school  Working  Borkum and  6  India  SA  RCT  Language  ‐0.232  librarian  paper  Linden 2013  Test score ‐ school  Wong et al.  7  Preschool voucher  China  EAP  RCT  ‐0.223  Journal  readiness  2013  Science 8th grade  ‐0.221  Aturupane et  8  School report card  Sri Lanka  SA  DID  Journal  Math 8th grade  ‐0.215  al. 2013  Working  Visaria et al.  9  Attendance reward  India  SA  RCT  Test score  ‐0.207  paper  2016  Early Grade Math,  ‐0.124  Working  Ozler et al.  10  Teacher training  Malawi  SSA  RCT  36‐month follow‐up    paper  2016  32    Appendix A: Studies included     This appendix lists the 177 studies included in the review. The 20 studies that examine girl‐targeted  programs are marked with an asterisk.     Adelman, Melissa, Holland, Peter , & Tillmann, Heidelk. (2017). Increasing Access by Waiving Tuition:  Evidence from Haiti. Comparative Education Review, 61(4), 804‐831.   Adukia, Anjali. (2017). Sanitation and Education. American Economic Journal: Applied Economics, 9(2),  23‐59.   Afridi, Farzana. (2011). The impact of school meals on school participation: evidence from rural India.  Journal of Development Studies, 47(11), 1636‐1656.   Afridi, Farzana, Barooah, Bidisha, & Somanathan, Rohini. (2016). The Mixture as Before? Student  Responses to the Changing Content of School Meals in India. IZA Discussion Paper No. 9924.   Akresh, Richard, de Walque, Damien, & Kazianga, Harounan. (2013). Cash Transfers and Child Schooling:  Evidence from a Randomized Evaluation of the Role of Conditionality. World Bank Policy  Research Working Paper No.6340.   Akresh, Richard, de Walque, Damien, & Kazianga, Harounan. (2016). Evidence from a randomized  evaluation of the household welfare impacts of conditional and unconditional cash transfers  given to mothers or fathers. World Bank Policy Research Working Paper No. 7730.   Alderman, Harold, Gilligan, Daniel O, & Lehrer, Kim. (2012). The impact of food for education programs  on school participation in northern Uganda. Economic Development and Cultural Change, 61(1),  187‐218.   Amarante, Verónica, Ferrando, Mery, & Vigorito, Andrea. (2013). Teenage School Attendance and Cash  Transfers: An Impact Evaluation of PANES. Economía, 14(1), 61‐96.   Ambler, Kate, Aycinena, Diego, & Yang, Dean. (2015). Channeling Remittances to Education: A Field  Experiment among Migrants from El Salvador. American Economic Journal: Applied Economics,  7(2), 207‐232.   *Amin, Sajeda, Ahmed, J, Saha, J, Hossain, I, & Haque, E. (2016). Delaying child marriage through  community‐based skills‐development programs for girls. Results from a randomized controlled  study in rural Bangladesh.   Andrabi, Tahir, Das, Jishnu, & Khwaja, Asim Ijaz. (2017). Report Cards: The Impact of Providing School  and Child Test Scores on Educational Markets. American Economic Review, 107(6), 1535‐1563.  Angrist, Joshua, Bettinger, Eric, & Kremer, Michael. (2006). Long‐term educational consequences of  secondary school vouchers: Evidence from administrative records in Colombia. American  Economic Review, 96(3), 847‐862.   Aturupane, Harsha, Glewwe, Paul, Ravina, Renato, Sonnadara, Upul, & Wisniewski, Suzanne. (2014). An  assessment of the impacts of Sri Lanka’s programme for school improvement and school report  card programme on students’ academic progress. The Journal of Development Studies, 50(12),  1647‐1669.   Avitabile, Ciro, & De Hoyos, Rafael. (2018). The Heterogeneous effect of information on student  performance: evidence from a randomized control trial in Mexico. Journal of Development  Economics, 135, 318‐348.   Baez, Javier E, & Camacho, Adriana. (2011). Assessing the long‐term effects of conditional cash transfers  on human capital: Evidence from Colombia. World Bank Policy Research Working Paper  No.5681.   33    *Bagby, Emilie, Dumitrescu, Anca, Orfield, Cara, & Sloan, Matt. (2016). Long‐Term Evaluation of the  IMAGINE Project in Niger. Mathematica Policy Research.   Baird, Sarah, Hicks, Joan Hamory, Kremer, Michael, & Miguel, Edward. (2016). Worms at work: Long‐run  impacts of a child health investment. The Quarterly Journal of Economics, 131(4), 1637‐1680.   *Baird, Sarah J, Chirwa, Ephraim, De Hoop, Jacobus, & Özler, Berk. (2016). Girl power: cash transfers and  adolescent welfare. Evidence from a cluster‐randomized experiment in Malawi. Chapter in NBER  book African Successes, Volume II: Human Capital (2016), Sebastian Edwards, Simon Johnson,  and David N. Weil, editors (p. 139 ‐ 164). University of Chicago Press.   *Baird, Sarah, McIntosh, Craig, & Özler, Berk. (2011). Cash or condition? Evidence from a cash transfer  experiment. The Quarterly Journal of Economics, 126(4), 1709‐1753.   Banerjee, Abhijit, Banerji, Rukmini, Berry, James , Duflo, Esther, Kannan, Harini, Mukerji, Shobhini, . . .  Walton, Michael (2016). Mainstreaming an Effective Intervention: Evidence form Randomized  Evaluations of "Teaching at the Right Level" in India. National Bureau of Economic Research  Working Paper No. 22746.   Banerjee, Abhijit, Duflo, Esther, Glennerster, Rachel, & Kinnan, Cynthia. (2015). The miracle of  microfinance? Evidence from a randomized evaluation. American Economic Journal: Applied  Economics, 7(1), 22‐53.   Banerjee, Abhijit V, Banerji, Rukmini, Duflo, Esther, Glennerster, Rachel, & Khemani, Stuti. (2010). Pitfalls  of Participatory Programs: Evidence from a randomized evaluation in education in India.  American Economic Journal: Economic Policy, 2(1), 1‐30.   Banerjee, Abhijit V, Cole, Shawn, Duflo, Esther, & Linden, Leigh. (2007). Remedying education: Evidence  from two randomized experiments in India. The Quarterly Journal of Economics, 122(3), 1235‐ 1264.   Banerji, Rukmini, Berry, James, & Shotland, Marc. (2017). The impact of maternal literacy and  participation programs: Evidence from a randomized evaluation in india. American Economic  Journal: Applied Economics, 9(4), 303‐337.   Barrera‐Osorio, Felipe, Bertrand, Marianne, Linden, Leigh L, & Perez‐Calle, Francisco. (2011). Improving  the design of conditional transfer programs: Evidence from a randomized education experiment  in Colombia. American Economic Journal: Applied Economics, 3(2), 167‐195.   Barrera‐Osorio, Felipe, Blakeslee, David S, Hoover, Matthew, Linden, Leigh L, Raju, Dhushyanth, & Ryan,  Stephen P. (2017). Delivering education to the underserved through a public‐private partnership  program in Pakistan. World Bank Policy Research Working Paper No.8177.   Barrera‐Osorio, Felipe, & Linden, Leigh L. (2009). The use and misuse of computers in education:  Evidence from a randomized experiment in Colombia. World Bank Policy Research Working  Paper No.4836.   Barrera‐Osorio, Felipe, Linden, Leigh, & Urquiola, Miguel. (2013). The effects of user fee reduction on  enrollment: Evidence from a quasi‐experiment. Gender Impact: the World Bank’s Gender Impact  Evaluation Database.   Bassi, Marina, Meghir, Costas, & Reynoso, Ana. (2016). Education Quality and Teaching Practices  National Bureau of Economic Research Working Paper 22719.   Battaglia, Marianna, & Lebedinski, Lara. (2014). The curse of low aspirations: Remedial education and  perceived returns to education of roma people. Retrieved from   Beasley, Elizabeth, & Huillery, Elise. (2017). Willing but unable? Short‐term experimental evidence on  parent empowerment and school quality. The World Bank Economic Review, 31(2), 531‐552.   Behrman, Jere R, Parker, Susan W, Todd, Petra E, & Wolpin, Kenneth I. (2015). Aligning learning  incentives of students and teachers: Results from a social experiment in Mexican high schools.  Journal of Political Economy, 123(2), 325‐364.   34    Benedetti, Fiorella, Ibarrarán, Pablo, & McEwan, Patrick J. (2016). Do education and health conditions  matter in a large cash transfer? Evidence from a Honduran experiment. Economic Development  and Cultural Change, 64(4), 759‐793.   Benhassine, Najy, Devoto, Florencia, Duflo, Esther, Dupas, Pascaline, & Pouliquen, Victor. (2015).  Turning a shove into a nudge? A" labeled cash transfer" for education. American Economic  Journal: Economic Policy, 7(3), 86‐125.   Berlinski, Samuel, & Busso, Matias. (2013). Pedagogical change in mathematics teaching: Evidence from  a randomized control trial. Washington, DC: Inter‐American Development Bank.   Beuermann, Diether W, Cristia, Julian, Cueto, Santiago, Malamud, Ofer, & Cruz‐Aguayo, Yyannu. (2015).  One laptop per child at home: Short‐term impacts from a randomized experiment in peru.  American Economic Journal: Applied Economics, 7(2), 53‐80.   Beuermann, Diether W, Naslund‐Hadley, Emma, Ruprah, Inder J, & Thompson, Jennelle. (2013). The  pedagogy of science and environment: Experimental evidence from Peru. The Journal of  Development Studies, 49(5), 719‐736.   Blimpo, Moussa P. (2014). Team incentives for education in developing countries: A randomized field  experiment in Benin. American Economic Journal: Applied Economics, 6(4), 90‐109.   Blimpo, Moussa Pouquinimpo, Evans, David K., & Lahire, Nathalie. (2015). Parental human capital and  effective school management: Evidence from The Gambia World Bank Policy Research Working  Paper No.7238.   Bobonis, Gustavo J, Miguel, Edward, & Puri‐Sharma, Charu. (2006). Anemia and school participation.  Journal of Human Resources, 41(4), 692‐721.   Borkum, Evan, He, Fang, & Linden, Leigh L. (2012). School libraries and language skills in Indian primary  schools: A randomized evaluation of the Akshara library program. NBER Working Paper 18183.   *Buchmann, Nina, Field, Erica, Glennerster, Rachel, Nazneen, Shahana, Pimkina, Svetlana, & Sen, Iman.  (2016). The effect of conditional incentives and a girls’ empowerment curriculum on adolescent  marriage, childbearing and education in rural Bangladesh: A community clustered randomized  controlled trial. Working Paper.   Buhl‐Wiggers, Julie, Kerwin, Jason T, Smith, Jeffrey A. , & Thornton, Rebecca. (2017). The impact of  teacher effectiveness on student learning in Africa. Paper presented at the RISE Annual  Conference 2017.   Burde, Dana, & Linden, Leigh L. (2013). Bringing education to Afghan girls: A randomized controlled trial  of village‐based schools. American Economic Journal: Applied Economics, 5(3), 27‐40.   Camargo, Braz, Camelo, Rafael, Firpo, Sergio, & Ponczek, Vladimir. (2018). Information, Market  Incentives, and Student Performance Evidence from a Regression Discontinuity Design in Brazil.  Journal of Human Resources, 53(2), 414‐444.   Carneiro, Pedro, Koussihouèdé, Oswald, Lahire, Nathalie, Meghir, Costas, & Mommaerts, Corina. (2015).  Decentralizing education resources: school grants in Senegal. National Bureau of Economic  Research Working Paper No. 21063.   Cerdan‐Infantes, Pedro, & Vermeersch, Christel. (2007). More time is better: An evaluation of the full  time school program in Uruguay. World Bank Policy Research Working Paper No. 4167.   Chaudhury, Nazmul, Friedman, Jed, & Onishi, Junko. (2013). Philippines conditional cash transfer  program impact evaluation 2012. Manila: World Bank Report(75533‐PH).   *Chaudhury, Nazmul, & Parajuli, Dilip. (2007). Conditional cash transfers and female schooling: the  impact of the female school stipend program on public school enrollments in Punjab, Pakistan.  Applied Economics, 42(28).   Cheung, Maria, & Berlin, Maria Perrotta. (2015). The Impact of a Food for Education Program on  Schooling in C ambodia. Asia & the Pacific Policy Studies, 2(1), 44‐57.   35    Chitolina, Lia, Foguel, Miguel Nathan, & Menezes‐Filho, Naercio. (2013). The impact of the expansion of  the Bolsa Família programme on the time allocation of youths and labour supply of adults.   Chyi, Hau, & Zhou, Bo. (2014). The effects of tuition reforms on school enrollment in rural China.  Economics of Education review, 38, 104‐123.   Cristia, Julian, Ibarrarán, Pablo, Cueto, Santiago, Santiago, Ana, & Severín, Eugenio. (2017). Technology  and child development: Evidence from the one laptop per child program. American Economic  Journal: Applied Economics, 9(3), 295‐320.   Cristia, Julian P, Czerwonko, Alejo, & Garofalo, Pablo. (2010). Does ICT Increase Years of Education?  Evidence from Peru.   Dammert, Ana C. (2009). Heterogeneous impacts of conditional cash transfers: Evidence from  Nicaragua. Economic Development and Cultural Change, 58(1), 53‐83.   Dang, Hai‐Anh, Sarr, Leopold, & Asadullah, Niaz. (2011). School access, resources, and learning  outcomes: Evidence from a non‐formal school program in Bangladesh: World Bank.  Das, Jishnu, Dercon, Stefan, Habyarimana, James, Krishnan, Pramila, Muralidharan, Karthik, &  Sundararaman, Venkatesh. (2013). School inputs, household substitution, and test scores.  American Economic Journal: Applied Economics, 5(2), 29‐57.   De Brauw, Alan, & Gilligan, Daniel. (2011). Using the regression discontinuity design with implicit  partitions: the impacts of Comunidades Solidarias Rurales on schooling in El Salvador. IFPRI‐ Discussion Papers(1116).   De Brauw, Alan, Gilligan, Daniel O, Hoddinott, John, & Roy, Shalini. (2015). The impact of Bolsa Familia  on schooling. World Development, 70, 303‐316.   *De Hoop, Jacobus, & Rosati, Furio C. (2014). Does promoting school attendance reduce child labor?  Evidence from Burkina Faso's BRIGHT project. Economics of Education review, 39, 78‐96.   De Ree, Joppe, Muralidharan, Karthik, Pradhan, Menno, & Rogers, Halsey. (2018). Double for Nothing?  Experimental Evidence on an Unconditional Teacher Salary Increase in Indonesia*. The Quarterly  Journal of Economics, 133(2), 993‐1039.   Di Gropello, Emanuela, & Marshall, Jeffery H. (2011). Decentralization and educational performance:  evidence from the PROHECO Community School Program in rural Honduras. Education  Economics, 19(2), 161‐180.   Dillon, Moira R, Kannan, Harini, Dean, Joshua T, Spelke, Elizabeth S, & Duflo, Esther. (2017). Cognitive  science in the field: A preschool intervention durably enhances intuitive but not formal  mathematics. Science, 357(6346), 47‐55.   Dinkelman, Taryn, & Martínez A, Claudia. (2014). Investing in schooling in Chile: The role of information  about financial aid for higher education. Review of Economics and Statistics, 96(2), 244‐257.   Duflo, Esther, Berry, James, Mukerji, Shobhini, & Shotland, Marc. (2014). A Wide Angle View of Learning:  Evaluation of the CCE and LEP Programmes in Haryana, 3ie Grantee Final Report. International  Initiative for Impact Evaluation (3ie).   Duflo, Esther, Dupas, Pascaline, & Kremer, Michael. (2009). Additional resources versus organizational  changes in education: Experimental evidence from Kenya. Unpublished manuscript. Abdul Latif  Jameel Poverty Action Lab (JPAL), Cambridge.  Duflo, Esther, Dupas, Pascaline, & Kremer, Michael. (2011). Peer Effects, Teacher Incentives, and the  Impact of Tracking: Evidence from a Randomized Evaluation in Kenya. American Economic  Review, 101(5), 1739‐1774.   Duflo, Esther, Dupas, Pascaline, & Kremer, Michael. (2015a). Education, HIV, and early fertility:  Experimental evidence from Kenya. American Economic Review, 105(9), 2757‐2797.   Duflo, Esther, Dupas, Pascaline, & Kremer, Michael. (2015b). School governance, teacher incentives, and  pupil–teacher ratios: Experimental evidence from Kenyan primary schools. Journal of Public  Economics, 123, 92‐110.   36    Duflo, Esther, Dupas, Pascaline, & Kremer, Michael. (2017). The impact of free secondary education:  Experimental evidence from Ghana. Massachusetts Institute of Technology Working Paper.  Cambridge, MA.   Duflo, Esther, Dupas, Pascaline, Kremer, Michael, & Sinei, Samuel. (2006). Education and HIV/AIDS  prevention: evidence from a randomized evaluation in Western Kenya. World Bank Policy  Research Working Paper No.4024.   Duflo, Esther, Hanna, Rema, & Ryan, Stephen P. (2012). Incentives Work: Getting Teachers to Come to  School American Economic Review, 102(4), 1241‐1278.   Dumitrescu, Anca, Levy, Dan, Orfield, Cara, & Sloan, Matt. (2011). Impact Evaluation of Niger's IMAGINE  Program. Mathematica Policy Research, Inc.  Edmonds, Eric V, & Schady, Norbert. (2012). Poverty alleviation and child labor. American Economic  Journal: Economic Policy, 4(4), 100‐124.   Edmonds, Eric V, & Shrestha, Maheshwor. (2014). You get what you pay for: Schooling incentives and  child labor. Journal of Development Economics, 111, 196‐211.   Evans, David, Hausladen, Stephanie, Kosec, Katrina, & Reese, Natasha. (2014). Community‐based  conditional cash transfers in Tanzania: results from a randomized trial: The World Bank.  Evans, David, & Ngatia, Irene Muthoni. (2018). School costs, short‐run participation, and long‐run  outcomes: evidence from Kenya. World Bank Policy Research Working Paper No.8421.   Eyal, Katherine, Woolard, Ingrid, & Burns, Justine. (2014). Cash transfers and teen education: evidence  from South Africa. Report, unpublished.   Ferreira, Francisco HG, Filmer, Deon, & Schady, Norbert. (2017). Own and Sibling Effects of Conditional  Cash Transfer Programs: Theory and Evidence from Cambodia. In Research on Economic  Inequality: Poverty, Inequality and Welfare (pp. 259‐298): Emerald Publishing Limited.  *Filmer, Deon, & Schady, Norbert. (2008). Getting girls into school: Evidence from a scholarship program  in Cambodia. Economic Development and Cultural Change, 56(3), 581‐617.   Filmer, Deon, & Schady, Norbert. (2014). The medium‐term effects of scholarships in a low‐income  country. Journal of Human Resources, 49(3), 663‐694.   *Friedman, Willa, Kremer, Michael, Miguel, Edward, & Thornton, Rebecca. (2011). Education as  liberation? NBER Working Paper 16939.   *Gajigo, Ousman. (2016). Closing the education gender gap: estimating the impact of girls' scholarship  program in The Gambia. Education Economics, 24(2), 167‐188.   Galiani, Sebastian, & McEwan, Patrick J. (2013). The heterogeneous impact of conditional cash transfers.  Journal of Public Economics, 103, 85‐96.   Gallego, Francisco, Näslund‐Hadley, Emma, & Alfonso, Mariana. (2018). Tailoring instruction to improve  mathematics skills in preschools: A randomized evaluation.   Gao, Qiufeng, Wang, Huan, Mo, Di, Shi, Yaojiang, Kenny, Kaleigh, & Rozelle, Scott. (2018). Can reading  programs improve reading skills and academic performance in rural China? China Economic  Review, 52, 111‐125.   Garlick, Robert. (2013). How Price Sensitive is Primary and Secondary School Enrollment? Evidence from  Nationwide Tuition Fee Reforms in South Africa. Unpublished working paper.   *Garn, Joshua V, Greene, Leslie E, Dreibelbis, Robert, Saboori, Shadi, Rheingans, Richard D, & Freeman,  Matthew C. (2013). A cluster‐randomized trial assessing the impact of school water, sanitation  and hygiene improvements on pupil enrolment and gender parity in enrolment. Journal of  Water Sanitation and Hygiene for Development, 3(4), 592‐601.   Gitter, Seth R, & Barham, Bradford L. (2008). Women's power, conditional cash transfers, and schooling  in Nicaragua. The World Bank Economic Review, 22(2), 271‐290.   Glewwe, Paul, Ilias, Nauman, & Kremer, Michael. (2010). Teacher Incentives American Economic Journal:  Applied Economics, 2(3), 205‐227.   37    Glewwe, Paul, Kremer, Michael, & Moulin, Sylvie. (2009). Many children left behind? Textbooks and test  scores in Kenya. American Economic Journal: Applied Economics, 1(1), 112‐135.   Glewwe, Paul, & Maïga, Eugenie WH. (2011). The impacts of school management reforms in  Madagascar: do the impacts vary by teacher type? Journal of development effectiveness, 3(4),  435‐469.   Glewwe, Paul, & Olinto, Pedro. (2004). Evaluating the impact of conditional cash transfers on schooling:  An experimental analysis of Honduras’ PRAF program. Unpublished manuscript, University of  Minnesota.   Glewwe, Paul, Park, Albert, & Zhao, Meng. (2016). A better vision for development: Eyeglasses and  academic performance in rural primary schools in China. Journal of Development Economics,  122, 170‐182.   Gutiérrez, Emilio, & Rodrigo, Rodimiro. (2014). Closing the achievement gap in mathematics: Evidence  from a remedial program in Mexico City. Latin American Economic Review, 23(1), 14.   Hamazaki, Kei, Syafruddin, Din, Tunru, Insan S, Azwir, Marina F, Asih, Puji BS, Sawazaki, Shigeki, &  Hamazaki, Tomohito. (2008). The effects of docosahexaenoic acid‐rich fish oil on behavior,  school attendance rate and malaria infection in school children‐a double‐blind, randomized,  placebo‐controlled trial in lampung, indonesia. Asia Pacific journal of clinical nutrition, 17(2),  258‐263.   Handa, Sudhanshu. (2002). Raising primary school enrolment in developing countries: The relative  importance of supply and demand. Journal of Development Economics, 69(1), 103‐128.   He, Fang, Linden, Leigh L., & MacLeod, Margaret (2008). How to Teach English in India: Testing the  Relative Productivity of Instruction Methods with the Pratham English Language Education  Program. Working Paper, Columbia University.   Hidalgo, Diana, Onofa, Mercedes, Oosterbeek, Hessel, & Ponce, Juan. (2013). Can provision of free  school uniforms harm attendance? Evidence from Ecuador. Journal of Development Economics,  103, 43‐51.   Hirshleifer, Sarojini. (2015). Incentives for effort or outputs? A field experiment to improve student  performance. Unpublished manuscript. Cambridge, MA: Abdul Latif Jameel Poverty Action Lab (J‐ PAL).   Hoekstra, Mark, Mouganie, Pierre, & Wang, Yaojing. (2018). Peer quality and the academic benefits to  attending better schools. Journal of Labor Economics, 36(4), 841‐884.   Humpage, Sarah. (2013). Essays on child development in developing countries (Ph.D), University of  Minnesota.  Imbrogno, Jason. (2014). Essays on the Economics of Education (Ph.D.), Carnegie Mellon University   Islam, Asad. (2019). Parent–teacher meetings and student outcomes: Evidence from a developing  country. European Economic Review, 111, 273‐304.   Jayaraman, Rajshri, & Simroth, Dora. (2015). The impact of school lunches on primary school  enrollment: evidence from India's midday meal scheme. The Scandinavian Journal of Economics,  117(4), 1176‐1203.   *Jensen, Robert. (2010). Economic Opportunities and Gender Differences in Human Capital:  Experimental Evidence for India. NBER Working Paper 16021.   *Jensen, Robert. (2012). Do labor market opportunities affect young women's work and family  decisions? Experimental evidence from India. The Quarterly Journal of Economics, 127(2), 753‐ 792.   Johnston, Jamie, & Ksoll, Christopher. (2017). Effectiveness of Interactive Satellite‐Transmitted    Instruction: Experimental Evidence from Ghanaian Primary Schools. CEPA Working  Paper No. 17‐08. Stanford Center for Education Policy Analysis.   38    Jukes, Matthew CH, Pinder, Margaret, Grigorenko, Elena L, Smith, Helen Baños, Walraven, Gijs, Bariau,  Elisa Meier, . . . Cheung, Yin Bun. (2006). Long‐term impact of malaria chemoprophylaxis on  cognitive abilities and educational attainment: follow‐up of a controlled trial. PLoS clinical trials,  1(4), e19.   Jukes, Matthew CH, Turner, Elizabeth L, Dubeck, Margaret, Halliday, Katherine E, Inyega, Hellen N, Wolf,  Sharon, . . . Brooker, Simon J. (2016). Improving Literacy Instruction in Kenya Through Teacher  Professional Development and Text Messages Support: A Cluster Randomized Trial. Journal of  Research on Educational Effectiveness, 1‐33.   Jung, Haeil, & Hasan, Amer. (2016). The impact of early childhood education on early achievement gaps  in Indonesia. Journal of development effectiveness, 8(2), 216‐233.   Karlan, Dean, & Linden, Leigh. (2014). Loose Knots: Strong versus Weak Commitments to Save for  Education in Uganda. NBER Working Paper 19863.   Kazianga, Harounan, De Walque, Damien, & Alderman, Harold. (2012). Educational and health impacts  of two school feeding schemes: Evidence from a randomized trial in rural Burkina Faso. Journal  of African Economies, 21(5), 723‐760.   *Kazianga, Harounan, Levy, Dan, Linden, Leigh L., & Sloan, Matt. (2013). The Effects of "Girl‐Friendly"  Schools: Evidence from the BRIGHT School Construction Program in Burkina Faso American  Economic Journal: Applied Economics, 5(3), 41‐62.   Kerwin, Jason T, & Thornton, Rebecca. (2015). Making the Grade: Understanding What Works for  Teaching Literacy in Rural Uganda. Unpublished Manuscript. University of Illinois, Urbana, IL.   *Kim, Jooseop, Alderman, Harold, & Orazem, Peter F. (1999). Can private school subsidies increase  enrollment for the poor? The Quetta Urban Fellowship Program. The World Bank Economic  Review, 13(3), 443‐465.   *Kremer, Michael, Miguel, Edward, & Thornton, Rebecca. (2009). Incentives to learn. The Review of  Economics and Statistics, 91(3), 437‐456.   Lai, Fang, Luo, Renfu, Zhang, Linxiu, Huang, Xinzhe, & Rozelle, Scott. (2015). Does computer‐assisted  learning improve learning outcomes?Evidence from a randomized experiment in migrant  schools in Beijing. Economics of Education review, 47, 34‐48.   Lakshminarayana, Rashmi, Eble, Alex, Bhakta, Preetha, Frost, Chris, Boone, Peter, Elbourne, Diana, &  Mann, Vera. (2013). The support to rural India's public education system (STRIPES) trial: a cluster  randomised controlled trial of supplementary teaching, learning material and material support.  PloS one, 8(7), e65775.   Lalive, Rafael, & Cattaneo, M Alejandra. (2009). Social interactions and schooling decisions. The Review  of Economics and Statistics, 91(3), 457‐477.   Lara, Bernardo, Mizala, Alejandra, & Repetto, Andrea. (2009). Revisiting the school choice debate in  Chile. Documentos de Trabajo No. 263, Serie de Economía, Centro de Economía Aplicada.   Lassibille, Gérard, Tan, Jee‐Peng, Jesse, Cornelia, & Van Nguyen, Trang. (2010). Managing for results in  primary education in Madagascar: Evaluating the impact of selected workflow interventions. The  World Bank Economic Review, 24(2), 303‐329.   Levy, Dan, Sloan, Matt, Linden, Leigh, & Kazianga, Harounan. (2009). Impact Evaluation of Burkina Faso's  BRIGHT Program. Final Report. Mathematica Policy Research, Inc.   Li, Tao, Han, Li, Zhang, Linxiu, & Rozelle, Scott. (2014). Encouraging classroom peer interactions:  Evidence from Chinese migrant schools. Journal of Public Economics, 111, 29‐45.   Linden, Leigh, Banerjee, Abhijit, & Duflo, Esther. (2003). Computer‐assisted learning: Evidence from a  randomized experiment. Poverty Action Lab Paper, 5.   Linden, Leigh L. (2008). Complement or substitute?: The effect of technology on student achievement in  India: InfoDev Working Paper, Columbia University.  39    Lo, Mouhamadou Moustapha, & Diagne, Abdoulaye. (2012). The Impact of School Feeding on Students’  Cognitive Acquisitions in Rural Primary Schools in Senegal. Working Paper.   Loyalka, Prashant, Liu, Chengfang, Song, Yingquan, Yi, Hongmei, Huang, Xiaoting, Wei, Jianguo, . . .  Rozelle, Scott. (2013). Can information and counseling help students from poor rural areas go to  high school? Evidence from China. Journal of Comparative Economics, 41(4), 1012‐1025.   Loyalka, Prashant, Popova, Anna, Li, GR, & Shi, ZL. (2019). Does Teacher Training Actually Work?  Evidence from a Large‐Scale Randomized Evaluation of a National Teacher Training Program.  American Economic Journal: Applied Economics.   Loyalka, Prashant, Sylvia, Sean, Liu, Chengfang, Chu, James, & Shi, Yaojiang. (2019). Pay by design:  Teacher performance pay design and the distribution of student achievement. Journal of Labor  Economics, 37(3), 621‐662.   Lu, Meichen, Loyalka, Prashant, Shi, Yaojiang, Chang, Fang, Liu, Chengfang, & Rozelle, Scott. (2019). The  impact of teacher professional development programs on student achievement in rural China:  Evidence from Shaanxi Province. Journal of development effectiveness, 1‐27.   Lucas, Adrienne M. , McEwan, Patrick J. , Ngware, Moses, & Oketch, Moses. (2014). Improving early  grade literacy in East Africa: Experimental evidence from Kenya and Uganda. Journal of Policy  Analysis and Management, 33(4), 950‐976.   Maluccio, John A, Murphy, Alexis, & Regalia, Ferdinando. (2010). Does supply matter? Initial schooling  conditions and the effectiveness of conditional cash transfers for grade progression in  Nicaragua. Journal of development effectiveness, 2(1), 87‐116.   Martínez Martínez, Oscar Alfonso. (2012). Effects on School Attendance of the Oportunidades Program  Scholarships. The Case of the Urban Zones at Northeast Mexico. Desarrollo y Sociedad, 69.   Martinez, Sebastian, Naudeau, Sophie, & Pereira, Vitor. (2017). Preschool and child development under  extreme poverty: evidence from a randomized experiment in rural mozambique. World Bank  Policy Research Working Paper No. 8290.   *Meller, Marian, & Litschig, Stephan. (2016). Adapting the supply of education to the needs of girls:  Evidence from a policy experiment in Rural India. Journal of Human Resources, 51(3), 760‐802.   Meng, Xin, & Ryan, Jim. (2010). Does a food for education program affect school outcomes? The  Bangladesh case. Journal of Population Economics, 23(2), 415‐447.   Mo, Di, Zhang, Linxiu, Wang, J, Huang, W, Shi, Y, Boswell, Matthew, & Rozelle, Scott. (2015). Persistence  of learning gains from computer assisted learning: Experimental evidence from C hina. Journal of  Computer Assisted Learning, 31(6), 562‐581.   Mo, Di, Zhang, Linxiu, Yi, Hongmei, Luo, Renfu, Rozelle, Scott, & Brinton, Carl. (2013). School dropouts  and conditional cash transfers: evidence from a randomised controlled trial in rural China's  junior high schools. The Journal of Development Studies, 49(2), 190‐207.   *Mocan, Naci H, & Cannonier, Colin. (2012). Empowering women through education: Evidence from  Sierra Leone. NBER Working Paper 18016.   Morabito, Christian, Figueroa, José Luis, & Vandenbroeck, Michel. (2018). Effects of high versus low‐ quality preschool education: A longitudinal study in Mauritius. Economics of Education review,  65, 126‐137.   *Muralidharan, Karthik, & Prakash, Nishith. (2017). Cycling to school: Increasing secondary school  enrollment for girls in India. American Economic Journal: Applied Economics, 9(3), 321‐350.   Muralidharan, Karthik, Singh, Abhijeet, & Ganimian, Alejandro J. (2019). Disrupting education?  Experimental evidence on technology‐aided instruction in India. American Economic Review,  109(4), 1426‐1460.   Muralidharan, Karthik, & Sundararaman, Venkatesh. (2011). Teacher Performance Pay: Experimental  Evidence from India. The Journal of Political Economy, 119(1), 39‐77.   40    Muralidharan, Karthik, & Sundararaman, Venkatesh. (2013). Contract teachers: Experimental Evidence  from India. NBER Working Paper 19440.   Muralidharan, Karthik, & Sundararaman, Venkatesh. (2015). The Aggregate Effect of School Choice:  Evidence from a Two‐Stage Experiment in India. The Quarterly Journal of Economics, 130(3),  1011‐1066.   Naseer, Muhammad Farooq, Patnam, Manasa, & Raza, Reehana R. (2010). Transforming public schools:  Impact of the CRI program on child learning in Pakistan. Economics of Education review, 29(4),  669‐683.   Olken, Benjamin A, Onishi, Junko, & Wong, Susan. (2014). Should aid reward performance? Evidence  from a field experiment on health and education in Indonesia. American Economic Journal:  Applied Economics, 6(4), 1‐34.   *Oster, Emily, & Thornton, Rebecca. (2011). Menstruation, sanitary products, and school attendance:  Evidence from a randomized evaluation. American Economic Journal: Applied Economics, 3(1),  91‐100.   Özler, Berk, Fernald, Lia CH, Kariger, Patricia, McConnell, Christin, Neuman, Michelle, & Fraga, Eduardo.  (2016). Combining preschool teacher training with parenting education: A cluster‐randomized  controlled trial. World Bank Policy Research Working Paper no.7817.   Parker, Susan W, Todd, Petra, & Wolpin, Kenneth. (2006). Within‐family program effect estimators: The  impact of Oportunidades on schooling in Mexico. Universidad de Pennsylvania, mimeografiado.   Piper, B, & Mugenda, A. (2014). The Primary Math and Reading (PRIMR) Initiative: Endline Impact  Evaluation. Retrieved from RTI International, Research Triangle Park, NC.   Piper, Benjamin. (2009). Integrated Education Program: Impact study of SMRS using early grade reading  assessment in three provinces in South Africa. Retrieved from RTI International, Research  Triangle Park, NC.   Piper, Benjamin, & Korda, Medina. (2010). Early Grade Reading Assessment (EGRA) Plus: Liberia.  Program Evaluation Report. Retrieved from RTI International, Research Triangle Park, NC.   Piper, Benjamin, Ralaingita, Wendi, Akach, Linda, & King, Simon. (2016). Improving procedural and  conceptual mathematics outcomes: Evidence from a randomised controlled trial in Kenya.  Journal of development effectiveness, 8(3), 404‐422.   Piper, Benjamin, Zuilkowski, Stephanie S, & Ong’ele, Salome. (2016). Implementing Mother Tongue  Instruction in the Real World: Results from a Medium‐Scale Randomized Controlled Trial in  Kenya. Comparative Education Review, 60(4), 776‐807.   Pradhan, Menno, Suryadarma, Daniel, Beatty, Amanda, Wong, Maisy, Gaduh, Arya, Alisjahbana, Armida,  & Artha, Rima Prama. (2014). Improving educational quality through enhancing community  participation: Results from a randomized field experiment in Indonesia. American Economic  Journal. Applied Economics, 6(2), 105.   Reinikka, Ritva, & Svensson, Jakob. (2011). The power of information in public services: Evidence from  education in Uganda. Journal of Public Economics, 95(7‐8), 956‐966.   Saavedra, Juan, Näslund‐Hadley, Emma, & Alfonso, Mariana. (2017). Targeted Remedial Education:  Experimental Evidence from Peru.   Sabarwal, Shwetlena, Evans, David K. , & Marshak, Anastasia. (2014). The permanent input hypothesis:  the case of textbooks and (no) student learning in Sierra Leone. World Bank Policy Research  Working Paper No. 7021.   Santana, Maria Isabel. (2008). An evaluation of the Impact of South Africa’s Child Support Grant on  school attendance. Centro de Estudios Distributivos, Laborales y Sociales, Universidad Nacional  de La Plata, Argentina.   Sharma, Dhiraj. (2011). The Impact of Financial Incentives on Academic Achievement and Household  Behavior: Evidence from a Randomized Trial in Nepal. The Ohio State University.  41    Sharma, Uttam. (2014). Can computers increase human capital in developing countries? An evaluation of  Nepal’s one laptop per child program. Paper presented at the Annual Meeting of the Agricultural  and Applied Economics Association, Minneapolis MN, July.  Skoufias, Emmanuel, Parker, Susan W, Behrman, Jere R, & Pessino, Carola. (2001). Conditional cash  transfers and their impact on child work and schooling: Evidence from the progresa program in  mexico [with comments]. Economía, 2(1), 45‐96.   Sparrow, Robert. (2007). Protecting education for the poor in times of crisis: An evaluation of a  scholarship programme in Indonesia. Oxford Bulletin of Economics and Statistics, 69(1), 99‐122.   Spears, Dean, & Lamba, Sneha. (2016). Effects of Early‐Life Exposure to Sanitation on Childhood  Cognitive Skills: Evidence from India’s Total Sanitation Campaign. Journal of Human Resources,  51(2), 298‐327.   Spratt, Jennifer, King, Simon, & Bulat, Jennae. (2013). Independent Evaluation of the Effectiveness of  Institut pour l'Education Populaire's "Read‐Learn‐Lead"(RLL) Program in Mali: Endline Report.  Retrieved from RTI International, Research Triangle Park, NC.   Stampini, Marco, Martinez‐Cordova, Sofia, Insfran, Sebastian, & Harris, Donna. (2018). Do conditional  cash transfers lead to better secondary schools? Evidence from Jamaica’s PATH. World  Development, 101, 104‐118.   Visaria, Sujata, Dehejia, Rajeev, Chao, Melody M, & Mukhopadhyay, Anirban. (2016). Unintended  consequences of rewards for student attendance: Results from a field experiment in Indian  classrooms. Economics of Education review, 54, 173‐184.   Wachanga, Samuel W, & Mwangi, John Gowland. (2004). Effects of the Cooperative Class Experiment  Teaching Method on Secondary School Students' Chemistry Achievement in Kenya's Nakuru  District. International Education Journal, 5(1), 26‐36.   Walker, Susan P, Chang, Susan M, Powell, Christine A, & Grantham‐McGregor, Sally M. (2005). Effects of  early childhood psychosocial stimulation and nutritional supplementation on cognition and  education in growth‐stunted Jamaican children: prospective cohort study. The Lancet,  366(9499), 1804‐1807.   Wang, Lei, Wu, Mengying, Shi, Yaojiang, Chen, Yazhuo, Loyalka, Prashant, Chu, James, . . . Rozelle, Scott.  (2017). The effect of teacher looping on student achievement: Evidence from rural China. In:  Rural Education Action Program.  Wong, Ho Lun, Luo, Renfu, Zhang, Linxiu, & Rozelle, Scott. (2013). The impact of vouchers on preschool  attendance and elementary school readiness: A randomized controlled trial in rural China.  Economics of Education review, 35, 53‐65.   Wong, Ho Lun, Shi, Yaojiang, Luo, Renfu, Zhang, Linxiu, & Rozelle, Scott. (2014). Improving the health  and education of elementary schoolchildren in rural China: Iron supplementation versus  nutritional training for parents. Journal of Development Studies, 50(4), 502‐519.   Yi, Hongmei, Song, Yingquan, Liu, Chengfang, Huang, Xiaoting, Zhang, Linxiu, Bai, Yunli, . . . Rozelle, Scott.  (2015). Giving kids a head start: The impact and mechanisms of early commitment of financial  aid on poor students in rural China. Journal of Development Economics, 113, 1‐15.   Yoshikawa, Hirokazu, Leyva, Diana, Snow, Catherine E, Treviño, Ernesto, Barata, M, Weiland,  Christina, . . . D'Sa, Nikhit. (2015). Experimental impacts of a teacher professional development  program in Chile on preschool classroom quality and child outcomes. Developmental  psychology, 51(3), 309.   Zavakou, Alkistis. (2011). An evaluation of the CCT program familias en acción on grade failure and  school drop‐out rates. Working Paper.     42    Appendix B: Journals and websites searched     Journals searched:    American Economic Review,    American Economics Journal: Applied Economics,    American Economics Journal: Economic Policy,    Comparative Education Review,    Economic Development and Cultural Change,   Journal of Development Economics,    Journal of Development Effectiveness,    International Journal of Educational Development,   Journal of Human Resources,    Quarterly Journal of Economics,    The Economics of Education Review,    World Bank Economic Review,    Journal of Public Economics,    Journal of Human Capital.     Websites searched:    3ie impact evaluation database,    RISE Programme Conference 2017,    CASE 2017 Conference,    the Abdul Latif Jameel Poverty Action Lab at MIT;    Innovations for Poverty Action;    the Inter‐American Development Bank;    the National Bureau of Economic Research;    RTI International;    the Rural Education Action Program at Stanford University;    the World Bank;   the IZA Institute of Labor Economics.       43