Fix failures in incremental_sort due to number of workers
authorTomas Vondra <[email protected]>
Mon, 6 Apr 2020 21:58:10 +0000 (23:58 +0200)
committerTomas Vondra <[email protected]>
Mon, 6 Apr 2020 22:02:07 +0000 (00:02 +0200)
The last test in incremental_sort suite prints a parallel plan, but some
of the buildfarm animals have custom max_parallel_workers_per_gather
values, causing failures. Fixed by setting the GUC to an explicit value.

Discussion: https://postgr.es/m/CAPpHfds1waRZ=NOmueYq0sx1ZSCnt+5QJvizT8ndT2=etZEeAQ@mail.gmail.com

src/test/regress/expected/incremental_sort.out
src/test/regress/sql/incremental_sort.sql

index f130c606c879001d08a84198916887cbaa4b82f4..404de630949b787e521d8696098165b7a2349602 100644 (file)
@@ -1402,6 +1402,7 @@ set min_parallel_table_scan_size = '1kB';
 set min_parallel_index_scan_size = '1kB';
 set parallel_setup_cost = 0;
 set parallel_tuple_cost = 0;
+set max_parallel_workers_per_gather = 2;
 create table t (a int, b int, c int);
 insert into t select mod(i,10),mod(i,10),i from generate_series(1,10000) s(i);
 create index on t (a);
index 3b359efa29ac76185eb1a0167c862c9a560989d2..2ba5d7a67d1027d0305bd0378cb85c226ba437bb 100644 (file)
@@ -198,6 +198,7 @@ set min_parallel_table_scan_size = '1kB';
 set min_parallel_index_scan_size = '1kB';
 set parallel_setup_cost = 0;
 set parallel_tuple_cost = 0;
+set max_parallel_workers_per_gather = 2;
 
 create table t (a int, b int, c int);
 insert into t select mod(i,10),mod(i,10),i from generate_series(1,10000) s(i);