Fix typos in comments.
authorHeikki Linnakangas <[email protected]>
Mon, 6 Feb 2017 09:33:58 +0000 (11:33 +0200)
committerHeikki Linnakangas <[email protected]>
Mon, 6 Feb 2017 09:34:18 +0000 (11:34 +0200)
Backpatch to all supported versions, where applicable, to make backpatching
of future fixes go more smoothly.

Josh Soref

Discussion: https://www.postgresql.org/message-id/CACZqfqCf+5qRztLPgmmosr-B0Ye4srWzzw_mo4c_8_B_mtjmJQ@mail.gmail.com

105 files changed:
configure
configure.in
contrib/cube/expected/cube.out
contrib/cube/expected/cube_1.out
contrib/cube/expected/cube_2.out
contrib/cube/expected/cube_3.out
contrib/cube/sql/cube.sql
contrib/earthdistance/earthdistance--1.0.sql
contrib/isn/ISSN.h
contrib/isn/isn.c
contrib/ltree/expected/ltree.out
contrib/ltree/ltxtquery_io.c
contrib/ltree/sql/ltree.sql
contrib/pg_standby/pg_standby.c
contrib/pg_stat_statements/pg_stat_statements.c
contrib/pgcrypto/mbuf.c
contrib/pgcrypto/pgp-mpi-internal.c
contrib/pgcrypto/pgp-mpi-openssl.c
contrib/seg/seg.c
contrib/sepgsql/selinux.c
contrib/sepgsql/sql/label.sql
contrib/spi/refint.c
contrib/start-scripts/osx/PostgreSQL
contrib/tsearch2/tsearch2--1.0.sql
contrib/xml2/xpath.c
src/Makefile.shlib
src/backend/access/gist/README
src/backend/access/heap/rewriteheap.c
src/backend/access/transam/commit_ts.c
src/backend/access/transam/xact.c
src/backend/catalog/objectaddress.c
src/backend/commands/dbcommands.c
src/backend/commands/explain.c
src/backend/commands/functioncmds.c
src/backend/commands/indexcmds.c
src/backend/commands/tablecmds.c
src/backend/executor/nodeWindowAgg.c
src/backend/libpq/hba.c
src/backend/optimizer/geqo/geqo_erx.c
src/backend/optimizer/path/joinpath.c
src/backend/optimizer/plan/planmain.c
src/backend/optimizer/util/joininfo.c
src/backend/optimizer/util/restrictinfo.c
src/backend/parser/gram.y
src/backend/postmaster/postmaster.c
src/backend/replication/logical/origin.c
src/backend/replication/logical/reorderbuffer.c
src/backend/replication/logical/snapbuild.c
src/backend/storage/ipc/shm_mq.c
src/backend/storage/lmgr/lock.c
src/backend/storage/lmgr/lwlock.c
src/backend/storage/lmgr/predicate.c
src/backend/tsearch/ts_parse.c
src/backend/tsearch/wparser_def.c
src/backend/utils/adt/formatting.c
src/backend/utils/adt/rangetypes_selfuncs.c
src/backend/utils/adt/ruleutils.c
src/backend/utils/adt/tsrank.c
src/backend/utils/adt/windowfuncs.c
src/backend/utils/cache/relcache.c
src/backend/utils/fmgr/funcapi.c
src/backend/utils/init/postinit.c
src/backend/utils/misc/Makefile
src/backend/utils/time/tqual.c
src/bin/pg_dump/pg_backup_custom.c
src/bin/psql/common.c
src/bin/psql/describe.c
src/include/access/xact.h
src/include/c.h
src/include/storage/s_lock.h
src/interfaces/ecpg/ecpglib/execute.c
src/interfaces/ecpg/pgtypeslib/datetime.c
src/interfaces/ecpg/pgtypeslib/numeric.c
src/interfaces/ecpg/preproc/ecpg.header
src/interfaces/ecpg/preproc/ecpg.trailer
src/interfaces/ecpg/preproc/parse.pl
src/interfaces/libpq/fe-auth.c
src/interfaces/libpq/libpq-int.h
src/interfaces/libpq/win32.c
src/pl/plperl/ppport.h
src/pl/plpython/plpy_elog.c
src/pl/plpython/plpy_typeio.h
src/test/isolation/specs/receipt-report.spec
src/test/isolation/specs/two-ids.spec
src/test/regress/expected/alter_table.out
src/test/regress/expected/indirect_toast.out
src/test/regress/expected/insert_conflict.out
src/test/regress/expected/join.out
src/test/regress/expected/matview.out
src/test/regress/expected/plpgsql.out
src/test/regress/expected/replica_identity.out
src/test/regress/expected/rolenames.out
src/test/regress/expected/rules.out
src/test/regress/expected/tsdicts.out
src/test/regress/sql/alter_table.sql
src/test/regress/sql/indirect_toast.sql
src/test/regress/sql/insert_conflict.sql
src/test/regress/sql/join.sql
src/test/regress/sql/matview.sql
src/test/regress/sql/plpgsql.sql
src/test/regress/sql/replica_identity.sql
src/test/regress/sql/rolenames.sql
src/test/regress/sql/rules.sql
src/test/regress/sql/tsdicts.sql
src/test/ssl/ServerSetup.pm

index 2275ad677e2a23cc7f299e3efcc8b646c84b56af..0283ecd639b16ff04110db2ecd23ef831eedf7dc 100755 (executable)
--- a/configure
+++ b/configure
@@ -7008,7 +7008,7 @@ test -z "$INSTALL_SCRIPT" && INSTALL_SCRIPT='${INSTALL}'
 test -z "$INSTALL_DATA" && INSTALL_DATA='${INSTALL} -m 644'
 
 # When Autoconf chooses install-sh as install program it tries to generate
-# a relative path to it in each makefile where it subsitutes it. This clashes
+# a relative path to it in each makefile where it substitutes it. This clashes
 # with our Makefile.global concept. This workaround helps.
 case $INSTALL in
   *install-sh*) install_bin='';;
@@ -7152,7 +7152,7 @@ fi
 $as_echo "$MKDIR_P" >&6; }
 
 # When Autoconf chooses install-sh as mkdir -p program it tries to generate
-# a relative path to it in each makefile where it subsitutes it. This clashes
+# a relative path to it in each makefile where it substitutes it. This clashes
 # with our Makefile.global concept. This workaround helps.
 case $MKDIR_P in
   *install-sh*) MKDIR_P='\${SHELL} \${top_srcdir}/config/install-sh -c -d';;
index 51525bacf94d9ae043d917f09872e977f21bee31..b44eb7c1293af210adca224dd1f7bf438e17793d 100644 (file)
@@ -862,7 +862,7 @@ fi
 
 AC_PROG_INSTALL
 # When Autoconf chooses install-sh as install program it tries to generate
-# a relative path to it in each makefile where it subsitutes it. This clashes
+# a relative path to it in each makefile where it substitutes it. This clashes
 # with our Makefile.global concept. This workaround helps.
 case $INSTALL in
   *install-sh*) install_bin='';;
@@ -875,7 +875,7 @@ AC_PROG_LN_S
 AC_PROG_AWK
 AC_PROG_MKDIR_P
 # When Autoconf chooses install-sh as mkdir -p program it tries to generate
-# a relative path to it in each makefile where it subsitutes it. This clashes
+# a relative path to it in each makefile where it substitutes it. This clashes
 # with our Makefile.global concept. This workaround helps.
 case $MKDIR_P in
   *install-sh*) MKDIR_P='\${SHELL} \${top_srcdir}/config/install-sh -c -d';;
index ca9555ed4b1d7d08a155b304ff977f210994dbf0..aeaf20c2cfd18890b36ced6b78f469a18d9976c9 100644 (file)
@@ -1019,7 +1019,7 @@ SELECT cube_dim('(4,8,15,16,23),(4,8,15,16,23)'::cube);
         5
 (1 row)
 
--- Test of cube_ll_coord function (retrieves LL coodinate values)
+-- Test of cube_ll_coord function (retrieves LL coordinate values)
 --
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ll_coord 
@@ -1075,7 +1075,7 @@ SELECT cube_ll_coord('(42,137)'::cube, 3);
              0
 (1 row)
 
--- Test of cube_ur_coord function (retrieves UR coodinate values)
+-- Test of cube_ur_coord function (retrieves UR coordinate values)
 --
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ur_coord 
index c07d61d0b0af9cc478fde07ca006d0c616283db7..ceb0ce1ee0212e7285ba37b4b443b12bf5dbeb48 100644 (file)
@@ -1019,7 +1019,7 @@ SELECT cube_dim('(4,8,15,16,23),(4,8,15,16,23)'::cube);
         5
 (1 row)
 
--- Test of cube_ll_coord function (retrieves LL coodinate values)
+-- Test of cube_ll_coord function (retrieves LL coordinate values)
 --
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ll_coord 
@@ -1075,7 +1075,7 @@ SELECT cube_ll_coord('(42,137)'::cube, 3);
              0
 (1 row)
 
--- Test of cube_ur_coord function (retrieves UR coodinate values)
+-- Test of cube_ur_coord function (retrieves UR coordinate values)
 --
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ur_coord 
index 3767d0ef9bc7928933413fcbf545b11602cc0c67..407cb04fa69a8e174cbe1a649eebb78c2ea55dbf 100644 (file)
@@ -1019,7 +1019,7 @@ SELECT cube_dim('(4,8,15,16,23),(4,8,15,16,23)'::cube);
         5
 (1 row)
 
--- Test of cube_ll_coord function (retrieves LL coodinate values)
+-- Test of cube_ll_coord function (retrieves LL coordinate values)
 --
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ll_coord 
@@ -1075,7 +1075,7 @@ SELECT cube_ll_coord('(42,137)'::cube, 3);
              0
 (1 row)
 
--- Test of cube_ur_coord function (retrieves UR coodinate values)
+-- Test of cube_ur_coord function (retrieves UR coordinate values)
 --
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ur_coord 
index 2aa42beb86be9df8497fd81d5cdcc5e44282d768..4b35081eac0c7be186d68b06fdc72275c5f52aa1 100644 (file)
@@ -1019,7 +1019,7 @@ SELECT cube_dim('(4,8,15,16,23),(4,8,15,16,23)'::cube);
         5
 (1 row)
 
--- Test of cube_ll_coord function (retrieves LL coodinate values)
+-- Test of cube_ll_coord function (retrieves LL coordinate values)
 --
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ll_coord 
@@ -1075,7 +1075,7 @@ SELECT cube_ll_coord('(42,137)'::cube, 3);
              0
 (1 row)
 
--- Test of cube_ur_coord function (retrieves UR coodinate values)
+-- Test of cube_ur_coord function (retrieves UR coordinate values)
 --
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 1);
  cube_ur_coord 
index d58974c408e1560f03c9acb8e2d1180c3cf21ec5..870fab4934581365e03b51ce1f523420e75a72d1 100644 (file)
@@ -246,7 +246,7 @@ SELECT cube_dim('(0,0,0)'::cube);
 SELECT cube_dim('(42,42,42),(42,42,42)'::cube);
 SELECT cube_dim('(4,8,15,16,23),(4,8,15,16,23)'::cube);
 
--- Test of cube_ll_coord function (retrieves LL coodinate values)
+-- Test of cube_ll_coord function (retrieves LL coordinate values)
 --
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 1);
 SELECT cube_ll_coord('(-1,1),(2,-2)'::cube, 2);
@@ -258,7 +258,7 @@ SELECT cube_ll_coord('(42,137)'::cube, 1);
 SELECT cube_ll_coord('(42,137)'::cube, 2);
 SELECT cube_ll_coord('(42,137)'::cube, 3);
 
--- Test of cube_ur_coord function (retrieves UR coodinate values)
+-- Test of cube_ur_coord function (retrieves UR coordinate values)
 --
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 1);
 SELECT cube_ur_coord('(-1,1),(2,-2)'::cube, 2);
index 4af9062e7d8536126bbabfcac2f25adf0a943b7c..c7e9429b61490830cdd68880b96ac2987ea5991e 100644 (file)
@@ -11,7 +11,7 @@ CREATE FUNCTION earth() RETURNS float8
 LANGUAGE SQL IMMUTABLE
 AS 'SELECT ''6378168''::float8';
 
--- Astromers may want to change the earth function so that distances will be
+-- Astronomers may want to change the earth function so that distances will be
 -- returned in degrees. To do this comment out the above definition and
 -- uncomment the one below. Note that doing this will break the regression
 -- tests.
index 082efcff7c67f866edf4ec48d4ef8312370c5e8f..585f0e2674156cd560850026fd87a2263115175b 100644 (file)
@@ -23,7 +23,7 @@
  * Product             9 + 21 + 7 + 3 + 1 + 12 + 4 + 24 + 7 + 15 + 0 + 0 = 103
  *                             103 / 10 = 10 remainder 3
  * Check digit 10 - 3 = 7
- * => 977-1144875-00-7 ??  <- suplemental number (number of the week, month, etc.)
+ * => 977-1144875-00-7 ??  <- supplemental number (number of the week, month, etc.)
  *                               ^^ 00 for non-daily publications (01=Monday, 02=Tuesday, ...)
  *
  * The hyphenation is always in after the four digits of the ISSN code.
index 9f53e1a1fbf60dfe7f19157e892a364250c41251..2684a862fd284e418eb1b4f9555b58617faad255 100644 (file)
@@ -160,7 +160,7 @@ dehyphenate(char *bufO, char *bufI)
  *                               into bufO using the given hyphenation range TABLE.
  *                               Assumes the input string to be used is of only digits.
  *
- * Returns the number of characters acctually hyphenated.
+ * Returns the number of characters actually hyphenated.
  */
 static unsigned
 hyphenate(char *bufO, char *bufI, const char *(*TABLE)[2], const unsigned TABLE_index[10][2])
@@ -748,7 +748,7 @@ string2ean(const char *str, bool errorOK, ean13 *result,
                }
                else if (*aux2 == '!' && *(aux2 + 1) == '\0')
                {
-                       /* the invalid check digit sufix was found, set it */
+                       /* the invalid check digit suffix was found, set it */
                        if (!magic)
                                valid = false;
                        magic = true;
index da6e39a785f18a3b5504f6ad60e2937240eb33ac..7e51ce3e2ba72d5d8efb065bc928fdd8f1cfe7b5 100644 (file)
@@ -1105,7 +1105,7 @@ SELECT '{a.b.c.d.e,B.df}'::ltree[] ? '{A.b.c.d.e,*.df}';
  t
 (1 row)
 
---exractors
+--extractors
 SELECT ('{3456,1.2.3.34}'::ltree[] ?@> '1.2.3.4') is null;
  ?column? 
 ----------
index befda1344d5e94f650545340643d490551e07e85..32d90462581d9ea10bf36ec7e338785faba8d8cf 100644 (file)
@@ -197,7 +197,7 @@ pushval_asis(QPRS_STATE *state, int type, char *strval, int lenval, uint16 flag)
 
 #define STACKDEPTH             32
 /*
- * make polish notaion of query
+ * make polish notation of query
  */
 static int32
 makepol(QPRS_STATE *state)
index 46cfa41a4195596ae8f3a151f94960473e042ba0..eb1beaef31f89cd793640bc889fc3c0df6e5f6da 100644 (file)
@@ -204,7 +204,7 @@ SELECT 'a.b.c.d.e'::ltree ? '{A.b.c.d.e, a.*}';
 SELECT '{a.b.c.d.e,B.df}'::ltree[] ? '{A.b.c.d.e}';
 SELECT '{a.b.c.d.e,B.df}'::ltree[] ? '{A.b.c.d.e,*.df}';
 
---exractors
+--extractors
 SELECT ('{3456,1.2.3.34}'::ltree[] ?@> '1.2.3.4') is null;
 SELECT '{3456,1.2.3}'::ltree[] ?@> '1.2.3.4';
 SELECT '{3456,1.2.3.4}'::ltree[] ?<@ '1.2.3';
index 861caea348106cfb1f4fb67d2325d27cd8d201fe..9d766321e2fb57cad6e25c842391fcbb227d0e33 100644 (file)
@@ -779,7 +779,7 @@ main(int argc, char **argv)
                {
                        /*
                         * Once we have restored this file successfully we can remove some
-                        * prior WAL files. If this restore fails we musn't remove any
+                        * prior WAL files. If this restore fails we mustn't remove any
                         * file because some of them will be requested again immediately
                         * after the failed restore, or when we restart recovery.
                         */
index 17ca1c94a62fa34de120918f4e852aaf9523285c..59f8f8fa66ac68acee128289fe6ab3944410929d 100644 (file)
@@ -138,7 +138,7 @@ typedef struct Counters
 {
        int64           calls;                  /* # of times executed */
        double          total_time;             /* total execution time, in msec */
-       double          min_time;               /* minimim execution time in msec */
+       double          min_time;               /* minimum execution time in msec */
        double          max_time;               /* maximum execution time in msec */
        double          mean_time;              /* mean execution time in msec */
        double          sum_var_time;   /* sum of variances in execution time in msec */
index 44d9adcd2ab9519697415b0f927dc4a893f3408c..73dbfbd08fc65db6f9d6e7e706e0218003b93a03 100644 (file)
@@ -311,7 +311,7 @@ pullf_read_max(PullFilter *pf, int len, uint8 **data_p, uint8 *tmpbuf)
 }
 
 /*
- * caller wants exatly len bytes and dont bother with references
+ * caller wants exactly len bytes and don't bother with references
  */
 int
 pullf_read_fixed(PullFilter *src, int len, uint8 *dst)
index be95f2d092690a4dd8378e4b21ea24dddd37f57c..daf4594eb7ca21d0a5c92c82dea72d61b7b675e3 100644 (file)
@@ -139,7 +139,7 @@ bn_to_mpi(mpz_t *bn)
 }
 
 /*
- * Decide the number of bits in the random componont k
+ * Decide the number of bits in the random component k
  *
  * It should be in the same range as p for signing (which
  * is deprecated), but can be much smaller for encrypting.
@@ -147,8 +147,8 @@ bn_to_mpi(mpz_t *bn)
  * Until I research it further, I just mimic gpg behaviour.
  * It has a special mapping table, for values <= 5120,
  * above that it uses 'arbitrary high number'.  Following
- * algorihm hovers 10-70 bits above gpg values.  And for
- * larger p, it uses gpg's algorihm.
+ * algorithm hovers 10-70 bits above gpg values.  And for
+ * larger p, it uses gpg's algorithm.
  *
  * The point is - if k gets large, encryption will be
  * really slow.  It does not matter for decryption.
index 24484a6c54e24c44ca3d71af70f8b6e10fa91380..afece26918653142ab0111d90519623a0b8da41e 100644 (file)
@@ -74,7 +74,7 @@ bn_to_mpi(BIGNUM *bn)
 }
 
 /*
- * Decide the number of bits in the random componont k
+ * Decide the number of bits in the random component k
  *
  * It should be in the same range as p for signing (which
  * is deprecated), but can be much smaller for encrypting.
@@ -82,8 +82,8 @@ bn_to_mpi(BIGNUM *bn)
  * Until I research it further, I just mimic gpg behaviour.
  * It has a special mapping table, for values <= 5120,
  * above that it uses 'arbitrary high number'.  Following
- * algorihm hovers 10-70 bits above gpg values.  And for
- * larger p, it uses gpg's algorihm.
+ * algorithm hovers 10-70 bits above gpg values.  And for
+ * larger p, it uses gpg's algorithm.
  *
  * The point is - if k gets large, encryption will be
  * really slow.  It does not matter for decryption.
index 1e6c37d9e1ae4f45157edf4a2deb3362cffe6631..1df3bf028db55153c7fce00a7f2f30c5daf80474 100644 (file)
@@ -888,7 +888,7 @@ restore(char *result, float val, int n)
                if (Abs(exp) <= 4)
                {
                        /*
-                        * remove the decimal point from the mantyssa and write the digits
+                        * remove the decimal point from the mantissa and write the digits
                         * to the buf array
                         */
                        for (p = result + sign, i = 10, dp = 0; *p != 'e'; p++, i++)
index e0912795fa3eb766326263f55e1dea6793d3ae22..61d7987d8815fc56a828218f155e56f52a09b95f 100644 (file)
@@ -23,7 +23,7 @@
  * When we ask SELinux whether the required privileges are allowed or not,
  * we use security_compute_av(3). It needs us to represent object classes
  * and access vectors using 'external' codes defined in the security policy.
- * It is determinded in the runtime, not build time. So, it needs an internal
+ * It is determined in the runtime, not build time. So, it needs an internal
  * service to translate object class/access vectors which we want to check
  * into the code which kernel want to be given.
  */
index 04085e57a4dcf306851767db7535b2936d97bff6..49780b2697b52cb1c595612892e6ccc54935ac38 100644 (file)
@@ -206,7 +206,7 @@ SELECT * FROM auth_tbl;     -- failed
 SELECT sepgsql_setcon(NULL);   -- end of session
 SELECT sepgsql_getcon();
 
--- the pooler cannot touch these tables directry
+-- the pooler cannot touch these tables directly
 SELECT * FROM foo_tbl; -- failed
 
 SELECT * FROM var_tbl; -- failed
index 26022107410abdd795d43f00669fbd937fbe575c..a1850f3311f273c952dbb61a1b97fbc6deaf7414 100644 (file)
@@ -89,7 +89,7 @@ check_primary_key(PG_FUNCTION_ARGS)
                /* internal error */
                elog(ERROR, "check_primary_key: cannot process DELETE events");
 
-       /* If UPDATion the must check new Tuple, not old one */
+       /* If UPDATE, then must check new Tuple, not old one */
        else
                tuple = trigdata->tg_newtuple;
 
index 24872b0944d992cd06aefc68c435ea86a58c7ec2..c6a19d2e0092b3f6362fa4492119033aefac420d 100755 (executable)
@@ -29,7 +29,7 @@
 # modified by Ray Aspeitia 12-03-2003 :
 # added log rotation script to db startup
 # modified StartupParameters.plist "Provides" parameter to make it easier to
-# start and stop with the SystemStarter utitlity
+# start and stop with the SystemStarter utility
 
 # use the below command in order to correctly start/stop/restart PG with log rotation script:
 # SystemStarter [start|stop|restart] PostgreSQL
index 4777df8d914a21cd174f89e2f903564ae9722181..6a1cb0555f36a2aeeecf9745d2b45c57f79a33ae 100644 (file)
@@ -414,7 +414,7 @@ CREATE FUNCTION stat(text,text)
        LANGUAGE INTERNAL
        RETURNS NULL ON NULL INPUT;
 
---reset - just for debuging
+--reset - just for debugging
 CREATE FUNCTION reset_tsearch()
         RETURNS void
         as 'MODULE_PATHNAME', 'tsa_reset_tsearch'
index 655c5322cdf21a7f107c0a86cf3b4dc3626a5fdf..11cb50c25404d42ca0d085c954b67bc0d959b9ae 100644 (file)
@@ -611,7 +611,7 @@ xpath_table(PG_FUNCTION_ARGS)
 
        /*
         * At the moment we assume that the returned attributes make sense for the
-        * XPath specififed (i.e. we trust the caller). It's not fatal if they get
+        * XPath specified (i.e. we trust the caller). It's not fatal if they get
         * it wrong - the input function for the column type will raise an error
         * if the path result can't be converted into the correct binary
         * representation.
index 924d21f443cf60e326ad5cf104c4308b3188939a..ee670f446db499aa1b5c4a013a53afeaaccb601f 100644 (file)
@@ -402,7 +402,7 @@ $(shlib): $(OBJS) $(DLL_DEFFILE) | $(SHLIB_PREREQS)
        $(CC) $(CFLAGS)  -shared -static-libgcc -o $@  $(OBJS) $(DLL_DEFFILE) $(LDFLAGS) $(LDFLAGS_SL) $(SHLIB_LINK) $(LIBS) -Wl,--out-implib=$(stlib)
 endif
 
-endif # PORTNAME == cgywin
+endif # PORTNAME == cygwin
 endif # PORTNAME == cygwin || PORTNAME == win32
 
 
index dd4c9fa70a028a894c73eac1917c2cc9c3d4f97e..02228662b81248f26c72725997f159236416c499 100644 (file)
@@ -28,7 +28,7 @@ The current implementation of GiST supports:
 
 The support for concurrency implemented in PostgreSQL was developed based on
 the paper "Access Methods for Next-Generation Database Systems" by
-Marcel Kornaker:
+Marcel Kornacker:
 
     http://www.sai.msu.su/~megera/postgres/gist/papers/concurrency/access-methods-for-next-generation.pdf.gz
 
index 6a6fc3bf11dab4a890bd8b68ad3276a5b42a19a8..3bd070474c28c0854de50cfbdfbd7d66b1f50552 100644 (file)
@@ -209,7 +209,7 @@ typedef struct RewriteMappingFile
 } RewriteMappingFile;
 
 /*
- * A single In-Memeory logical rewrite mapping, hanging of
+ * A single In-Memory logical rewrite mapping, hanging off
  * RewriteMappingFile->mappings.
  */
 typedef struct RewriteMappingDataEntry
index eec7377975cb14f5e3e7760d043c9c73c269681b..f17cc8d9769e94ba1f3ae97c27c2fab25e838041 100644 (file)
@@ -613,7 +613,7 @@ CommitTsParameterChange(bool newvalue, bool oldvalue)
 
 /*
  * Activate this module whenever necessary.
- *             This must happen during postmaster or standalong-backend startup,
+ *             This must happen during postmaster or standalone-backend startup,
  *             or during WAL replay anytime the track_commit_timestamp setting is
  *             changed in the master.
  *
index 47312f6854fb2c83dc54387def99f22f8fea30c0..90e17b63cf250e61e564f718b3947f43265ebd9d 100644 (file)
@@ -2728,7 +2728,7 @@ CommitTransactionCommand(void)
                         * These shouldn't happen.  TBLOCK_DEFAULT means the previous
                         * StartTransactionCommand didn't set the STARTED state
                         * appropriately, while TBLOCK_PARALLEL_INPROGRESS should be ended
-                        * by EndParallelWorkerTranaction(), not this function.
+                        * by EndParallelWorkerTransaction(), not this function.
                         */
                case TBLOCK_DEFAULT:
                case TBLOCK_PARALLEL_INPROGRESS:
index 179bf125c52f86091e3033ac38804d3ce0e1a329..da370fc25933d10035d22fd1b05324c56fbdae68 100644 (file)
@@ -709,7 +709,7 @@ static void getRelationIdentity(StringInfo buffer, Oid relid, List **objname);
  *
  * Note: If the object is not found, we don't give any indication of the
  * reason.  (It might have been a missing schema if the name was qualified, or
- * an inexistant type name in case of a cast, function or operator; etc).
+ * a nonexistent type name in case of a cast, function or operator; etc).
  * Currently there is only one caller that might be interested in such info, so
  * we don't spend much effort here.  If more callers start to care, it might be
  * better to add some support for that in this function.
index 6cbe65e88a45f979e1fde02b00298756d36fc216..39dd705f0cf23c910936ed2ed6da7ed9f391704c 100644 (file)
@@ -674,7 +674,7 @@ createdb(const CreatedbStmt *stmt)
 
                /*
                 * Force synchronous commit, thus minimizing the window between
-                * creation of the database files and commital of the transaction. If
+                * creation of the database files and committal of the transaction. If
                 * we crash before committing, we'll have a DB that's taking up disk
                 * space but is not in pg_database, which is not good.
                 */
@@ -928,7 +928,7 @@ dropdb(const char *dbname, bool missing_ok)
 
        /*
         * Force synchronous commit, thus minimizing the window between removal of
-        * the database files and commital of the transaction. If we crash before
+        * the database files and committal of the transaction. If we crash before
         * committing, we'll have a DB that's gone on disk but still there
         * according to pg_database, which is not good.
         */
@@ -1286,7 +1286,7 @@ movedb(const char *dbname, const char *tblspcname)
 
                /*
                 * Force synchronous commit, thus minimizing the window between
-                * copying the database files and commital of the transaction. If we
+                * copying the database files and committal of the transaction. If we
                 * crash before committing, we'll leave an orphaned set of files on
                 * disk, which is not fatal but not good either.
                 */
index b57eab752a95a3a0aae4b532f5689e1bc3493b5b..aa54c1b2f5561ad41ec21361d78688d6c136cb9b 100644 (file)
@@ -3257,7 +3257,7 @@ ExplainYAMLLineStarting(ExplainState *es)
 }
 
 /*
- * YAML is a superset of JSON; unfortuantely, the YAML quoting rules are
+ * YAML is a superset of JSON; unfortunately, the YAML quoting rules are
  * ridiculously complicated -- as documented in sections 5.3 and 7.3.3 of
  * http://yaml.org/spec/1.2/spec.html -- so we chose to just quote everything.
  * Empty strings, strings with leading or trailing whitespace, and strings
index dbbb2d3f88ab9aceebe9e0fd6ea3995cc4f427fd..bcc3a883675fcb3522300fc38e520581c4baed44 100644 (file)
@@ -1006,7 +1006,7 @@ CreateFunction(CreateFunctionStmt *stmt, const char *queryString)
        }
        else
        {
-               /* store SQL NULL instead of emtpy array */
+               /* store SQL NULL instead of empty array */
                trftypes = NULL;
        }
 
@@ -1406,7 +1406,7 @@ CreateCast(CreateCastStmt *stmt)
                                (errcode(ERRCODE_WRONG_OBJECT_TYPE),
                                 errmsg("cast will be ignored because the target data type is a domain")));
 
-       /* Detemine the cast method */
+       /* Determine the cast method */
        if (stmt->func != NULL)
                castmethod = COERCION_METHOD_FUNCTION;
        else if (stmt->inout)
index b450bcf754e8b347631190f0852e92adbb3bc81b..ed6162fd5e71803f3da8cfcc4b30b27537983936 100644 (file)
@@ -96,7 +96,7 @@ static void RangeVarCallbackForReindexIndex(const RangeVar *relation,
  * Errors arising from the attribute list still apply.
  *
  * Most column type changes that can skip a table rewrite do not invalidate
- * indexes.  We ackowledge this when all operator classes, collations and
+ * indexes.  We acknowledge this when all operator classes, collations and
  * exclusion operators match.  Though we could further permit intra-opfamily
  * changes for btree and hash indexes, that adds subtle complexity with no
  * concrete benefit for core types.
@@ -916,7 +916,7 @@ CheckMutability(Expr *expr)
  * indxpath.c could do something with.  However, that seems overly
  * restrictive.  One useful application of partial indexes is to apply
  * a UNIQUE constraint across a subset of a table, and in that scenario
- * any evaluatable predicate will work.  So accept any predicate here
+ * any evaluable predicate will work.  So accept any predicate here
  * (except ones requiring a plan), and let indxpath.c fend for itself.
  */
 static void
index aef22edbe8a4ec031918e4a8187aab6b2010b53c..a20cc6d091f68377079222df6086a8969d541d7b 100644 (file)
@@ -6164,7 +6164,7 @@ ATAddCheckConstraint(List **wqueue, AlteredTableInfo *tab, Relation rel,
 
        /*
         * Check if ONLY was specified with ALTER TABLE.  If so, allow the
-        * contraint creation only if there are no children currently.  Error out
+        * constraint creation only if there are no children currently.  Error out
         * otherwise.
         */
        if (!recurse && children != NIL)
index a405a31f1850fa5e8fb12788a065f7db95abdf9a..aeb7bd51753b047083f9eb98bdbab76b57548e17 100644 (file)
@@ -354,7 +354,7 @@ advance_windowaggregate(WindowAggState *winstate,
 
        /*
         * We must track the number of rows included in transValue, since to
-        * remove the last input, advance_windowaggregate_base() musn't call the
+        * remove the last input, advance_windowaggregate_base() mustn't call the
         * inverse transition function, but simply reset transValue back to its
         * initial value.
         */
index 97afce3e57a2182ecc75772ca3e717b0162c4025..b7d26842c833c3b48dbcb52cc093217051f8fe9d 100644 (file)
@@ -87,7 +87,7 @@ static MemoryContext parsed_hba_context = NULL;
  *
  * NOTE: the IdentLine structs can contain pre-compiled regular expressions
  * that live outside the memory context. Before destroying or resetting the
- * memory context, they need to be expliticly free'd.
+ * memory context, they need to be explicitly free'd.
  */
 static List *parsed_ident_lines = NIL;
 static MemoryContext parsed_ident_context = NULL;
index 1a43ab7288c1dcaa43dc341ae30acb5d6893496a..023abf70e21fe02ce8f95bf64f292fc3ee1b13ce 100644 (file)
@@ -111,7 +111,7 @@ gimme_edge_table(PlannerInfo *root, Gene *tour1, Gene *tour2,
        for (index1 = 0; index1 < num_gene; index1++)
        {
                /*
-                * presume the tour is circular, i.e. 1->2, 2->3, 3->1 this operaton
+                * presume the tour is circular, i.e. 1->2, 2->3, 3->1 this operation
                 * maps n back to 1
                 */
 
@@ -314,7 +314,7 @@ gimme_gene(PlannerInfo *root, Edge edge, Edge *edge_table)
                /*
                 * give priority to candidates with fewest remaining unused edges;
                 * find out what the minimum number of unused edges is
-                * (minimum_edges); if there is more than one cadidate with the
+                * (minimum_edges); if there is more than one candidate with the
                 * minimum number of unused edges keep count of this number
                 * (minimum_count);
                 */
index 53d8fdd6e5bb28c34b3867580c6f037b818c548c..5ef54c9caa959c05655b6866d68128850a72c06e 100644 (file)
@@ -1319,7 +1319,7 @@ select_mergejoin_clauses(PlannerInfo *root,
                /*
                 * Insist that each side have a non-redundant eclass.  This
                 * restriction is needed because various bits of the planner expect
-                * that each clause in a merge be associatable with some pathkey in a
+                * that each clause in a merge be associable with some pathkey in a
                 * canonical pathkey list, but redundant eclasses can't appear in
                 * canonical sort orderings.  (XXX it might be worth relaxing this,
                 * but not enough time to address it for 8.3.)
index 41cbec7d036e2dff0406eabf234e6bf646fd3750..ac345dcefd797f3b43dbec84df016465ee575306 100644 (file)
@@ -183,7 +183,7 @@ query_planner(PlannerInfo *root, List *tlist,
        /*
         * Now distribute "placeholders" to base rels as needed.  This has to be
         * done after join removal because removal could change whether a
-        * placeholder is evaluatable at a base rel.
+        * placeholder is evaluable at a base rel.
         */
        add_placeholders_to_base_rels(root);
 
index fe7c8c58b291e45a57f600cf890f92969f54c17d..2d1d19211ebfbf4f6a99332aa703ddf731a07157 100644 (file)
@@ -24,7 +24,7 @@
  *             Detect whether there is a joinclause that involves
  *             the two given relations.
  *
- * Note: the joinclause does not have to be evaluatable with only these two
+ * Note: the joinclause does not have to be evaluable with only these two
  * relations.  This is intentional.  For example consider
  *             SELECT * FROM a, b, c WHERE a.x = (b.y + c.z)
  * If a is much larger than the other tables, it may be worthwhile to
index 65499902f6c1d7103b7260cbfaf7b1f096a8b446..95037a7c617287eaff781f0291d4b7e40e5995ad 100644 (file)
@@ -550,7 +550,7 @@ join_clause_is_movable_into(RestrictInfo *rinfo,
                                                        Relids currentrelids,
                                                        Relids current_and_outer)
 {
-       /* Clause must be evaluatable given available context */
+       /* Clause must be evaluable given available context */
        if (!bms_is_subset(rinfo->clause_relids, current_and_outer))
                return false;
 
index 642915f9aa2f2d07ad24ef0fa8531b42d8def76c..3f1620b574a23383e2fdb768fa68b02265b6dae8 100644 (file)
@@ -10540,7 +10540,7 @@ table_ref:      relation_expr opt_alias_clause
                                        n->lateral = true;
                                        n->subquery = $2;
                                        n->alias = $3;
-                                       /* same coment as above */
+                                       /* same comment as above */
                                        if ($3 == NULL)
                                        {
                                                if (IsA($2, SelectStmt) &&
index cfc50fb8fd2af402084d5370b63d0942dc17b518..e179430945c803dfd89d2863c616b6a949ecb938 100644 (file)
@@ -5104,7 +5104,7 @@ PostmasterRandom(void)
 }
 
 /*
- * Count up number of child processes of specified types (dead_end chidren
+ * Count up number of child processes of specified types (dead_end children
  * are always excluded).
  */
 static int
index ca90e9ea3769a000d67d3e12e7c99f074f4a27f5..e2b52a2d08ff776276f7d26c16d040746fc565b8 100644 (file)
@@ -1257,7 +1257,7 @@ pg_replication_origin_session_is_setup(PG_FUNCTION_ARGS)
  * Return the replication progress for origin setup in the current session.
  *
  * If 'flush' is set to true it is ensured that the returned value corresponds
- * to a local transaction that has been flushed. this is useful if asychronous
+ * to a local transaction that has been flushed. this is useful if asynchronous
  * commits are used when replaying replicated transactions.
  */
 Datum
@@ -1343,7 +1343,7 @@ pg_replication_origin_advance(PG_FUNCTION_ARGS)
  * Return the replication progress for an individual replication origin.
  *
  * If 'flush' is set to true it is ensured that the returned value corresponds
- * to a local transaction that has been flushed. this is useful if asychronous
+ * to a local transaction that has been flushed. this is useful if asynchronous
  * commits are used when replaying replicated transactions.
  */
 Datum
index 3e40a30efd7eb92cb0b3dcef6d275dd13c5f8db6..5d844a1f0754dc8903a6c2fcf0c2ceb38082f05a 100644 (file)
@@ -1648,7 +1648,7 @@ ReorderBufferCommit(ReorderBuffer *rb, TransactionId xid,
  *
  * NB: Transactions handled here have to have actively aborted (i.e. have
  * produced an abort record). Implicitly aborted transactions are handled via
- * ReorderBufferAbortOld(); transactions we're just not interesteded in, but
+ * ReorderBufferAbortOld(); transactions we're just not interested in, but
  * which have committed are handled in ReorderBufferForget().
  *
  * This function purges this transaction and its contents from memory and
@@ -1716,7 +1716,7 @@ ReorderBufferAbortOld(ReorderBuffer *rb, TransactionId oldestRunningXid)
  * toplevel xid.
  *
  * This is significantly different to ReorderBufferAbort() because
- * transactions that have committed need to be treated differenly from aborted
+ * transactions that have committed need to be treated differently from aborted
  * ones since they may have modified the catalog.
  *
  * Note that this is only allowed to be called in the moment a transaction
@@ -2527,7 +2527,7 @@ StartupReorderBuffer(void)
 
                /*
                 * ok, has to be a surviving logical slot, iterate and delete
-                * everythign starting with xid-*
+                * everything starting with xid-*
                 */
                sprintf(path, "pg_replslot/%s", logical_de->d_name);
 
index eb571045fea77802c6e0d626cd4e7556ab6cc919..513c5c37c66c7314acf99153affcd2de2d6bd045 100644 (file)
@@ -661,7 +661,7 @@ SnapBuildProcessChange(SnapBuild *builder, TransactionId xid, XLogRecPtr lsn)
                if (builder->snapshot == NULL)
                {
                        builder->snapshot = SnapBuildBuildSnapshot(builder, xid);
-                       /* inrease refcount for the snapshot builder */
+                       /* increase refcount for the snapshot builder */
                        SnapBuildSnapIncRefcount(builder->snapshot);
                }
 
@@ -894,7 +894,7 @@ SnapBuildEndTxn(SnapBuild *builder, XLogRecPtr lsn, TransactionId xid)
                {
                        /*
                         * None of the originally running transaction is running anymore,
-                        * so our incrementaly built snapshot now is consistent.
+                        * so our incrementally built snapshot now is consistent.
                         */
                        ereport(LOG,
                                  (errmsg("logical decoding found consistent point at %X/%X",
index 65348dca97b18f2f8c9bf9dca50a40c4886c0553..824105fd0d399e0df16ebe8f4fe04853166c157a 100644 (file)
@@ -472,7 +472,7 @@ shm_mq_sendv(shm_mq_handle *mqh, shm_mq_iovec *iov, int iovcnt, bool nowait)
  * it will point to a temporary buffer.  This mostly avoids data copying in
  * the hoped-for case where messages are short compared to the buffer size,
  * while still allowing longer messages.  In either case, the return value
- * remains valid until the next receive operation is perfomed on the queue.
+ * remains valid until the next receive operation is performed on the queue.
  *
  * When nowait = false, we'll wait on our process latch when the ring buffer
  * is empty and we have not yet received a full message.  The sender will
index c377d384b765a7efa1d9483d53fe7f5855e1f42a..06d8e9cf26f2c00639a381977d62d0a749b9bfcb 100644 (file)
@@ -2697,7 +2697,7 @@ GetLockConflicts(const LOCKTAG *locktag, LOCKMODE lockmode)
                vxids = (VirtualTransactionId *)
                        palloc0(sizeof(VirtualTransactionId) * (MaxBackends + 1));
 
-       /* Compute hash code and partiton lock, and look up conflicting modes. */
+       /* Compute hash code and partition lock, and look up conflicting modes. */
        hashcode = LockTagHashCode(locktag);
        partitionLock = LockHashPartitionLock(hashcode);
        conflictMask = lockMethodTable->conflictTab[lockmode];
index 32fdc088cff974ef73e16a0e1a191ee475459f79..9a100f7d08cb103c67291dda8e53fd708b0bfa4c 100644 (file)
@@ -636,7 +636,7 @@ LWLockAttemptLock(LWLock *lock, LWLockMode mode)
                                return false;
                        }
                        else
-                               return true;    /* someobdy else has the lock */
+                               return true;    /* somebody else has the lock */
                }
        }
        pg_unreachable();
@@ -733,7 +733,7 @@ LWLockWakeup(LWLock *lock)
                 * that happens before the list unlink happens, the list would end up
                 * being corrupted.
                 *
-                * The barrier pairs with the SpinLockAcquire() when enqueing for
+                * The barrier pairs with the SpinLockAcquire() when enqueuing for
                 * another lock.
                 */
                pg_write_barrier();
@@ -823,7 +823,7 @@ LWLockDequeueSelf(LWLock *lock)
 
        /*
         * Can't just remove ourselves from the list, but we need to iterate over
-        * all entries as somebody else could have unqueued us.
+        * all entries as somebody else could have dequeued us.
         */
        dlist_foreach_modify(iter, &lock->waiters)
        {
index 47b4adaf0e287781969fb010796dc8d9cbe897d4..6bacfc62d9f3adddc4ccc4f07d2c2b5fc31fb216 100644 (file)
@@ -3203,7 +3203,7 @@ ReleasePredicateLocks(bool isCommit)
        /*
         * We can't trust XactReadOnly here, because a transaction which started
         * as READ WRITE can show as READ ONLY later, e.g., within
-        * substransactions.  We want to flag a transaction as READ ONLY if it
+        * subtransactions.  We want to flag a transaction as READ ONLY if it
         * commits without writing so that de facto READ ONLY transactions get the
         * benefit of some RO optimizations, so we will use this local variable to
         * get some cleanup logic right which is based on whether the transaction
index fa911144eff912aa25f998621f250457e043ff05..7ba4cbc3e2ddfd4bf50f3e3f736fae395e325e82 100644 (file)
@@ -179,7 +179,7 @@ LexizeExec(LexizeData *ld, ParsedLex **correspondLexem)
        if (ld->curDictId == InvalidOid)
        {
                /*
-                * usial mode: dictionary wants only one word, but we should keep in
+                * usual mode: dictionary wants only one word, but we should keep in
                 * mind that we should go through all stack
                 */
 
@@ -272,7 +272,7 @@ LexizeExec(LexizeData *ld, ParsedLex **correspondLexem)
 
                                /*
                                 * We should be sure that current type of lexeme is recognized
-                                * by our dictinonary: we just check is it exist in list of
+                                * by our dictionary: we just check is it exist in list of
                                 * dictionaries ?
                                 */
                                for (i = 0; i < map->len && !dictExists; i++)
@@ -618,7 +618,7 @@ generateHeadline(HeadlineParsedText *prs)
                                /* start of a new fragment */
                                infrag = 1;
                                numfragments++;
-                               /* add a fragment delimitor if this is after the first one */
+                               /* add a fragment delimiter if this is after the first one */
                                if (numfragments > 1)
                                {
                                        memcpy(ptr, prs->fragdelim, prs->fragdelimlen);
index c03b7271206f2dd0975449a937a4049d92d10eac..d576253fcbe6bbf0ccac051ed31ee4d553993acc 100644 (file)
@@ -2421,7 +2421,7 @@ mark_hl_words(HeadlineParsedText *prs, TSQuery query, int highlight,
                                                break;
                                }
                                if (curlen < min_words && i >= prs->curwords)
-                               {                               /* got end of text and our cover is shoter
+                               {                               /* got end of text and our cover is shorter
                                                                 * than min_words */
                                        for (i = p - 1; i >= 0; i--)
                                        {
index d65ab1f9b06b1d91987b5a0495aa656e84d828aa..4835ddba71511caf69ddff8c468b96608add41be 100644 (file)
@@ -2278,7 +2278,7 @@ seq_search(char *name, const char *const * array, int type, int max, int *len)
 
        for (last = 0, a = array; *a != NULL; a++)
        {
-               /* comperate first chars */
+               /* compare first chars */
                if (*name != **a)
                        continue;
 
index 7cc5e484366ee0070bfc0b5700d0cce5a3dea3cb..6ec64feed711cd0e6f1b029ec8801ccf29c23544 100644 (file)
@@ -533,7 +533,7 @@ calc_hist_selectivity(TypeCacheEntry *typcache, VariableStatData *vardata,
                        {
                                /*
                                 * Lower bound no longer matters. Just estimate the fraction
-                                * with an upper bound <= const uppert bound
+                                * with an upper bound <= const upper bound
                                 */
                                hist_selec =
                                        calc_hist_selectivity_scalar(typcache, &const_upper,
index f6987001533831ce19250767966f6e94ac0bc1d6..2f7e4c03fb6813744e3d86807d9c2739bf7eebb4 100644 (file)
@@ -2365,7 +2365,7 @@ is_input_argument(int nth, const char *argmodes)
 }
 
 /*
- * Append used transformated types to specified buffer
+ * Append used transformed types to specified buffer
  */
 static void
 print_function_trftypes(StringInfo buf, HeapTuple proctup)
index a3066fa79485d4f8dd6bf9bccaefb7d6870869e0..1ad819cb2f6d4eae0bb739e39deccc8cd001c267 100644 (file)
@@ -785,7 +785,7 @@ calc_rank_cd(const float4 *arrdata, TSVector txt, TSQuery query, int method)
 
                /*
                 * if doc are big enough then ext.q may be equal to ext.p due to limit
-                * of posional information. In this case we approximate number of
+                * of positional information. In this case we approximate number of
                 * noise word as half cover's length
                 */
                nNoise = (ext.q - ext.p) - (ext.end - ext.begin);
@@ -794,7 +794,7 @@ calc_rank_cd(const float4 *arrdata, TSVector txt, TSQuery query, int method)
                Wdoc += Cpos / ((double) (1 + nNoise));
 
                CurExtPos = ((double) (ext.q + ext.p)) / 2.0;
-               if (NExtent > 0 && CurExtPos > PrevExtPos               /* prevent devision by
+               if (NExtent > 0 && CurExtPos > PrevExtPos               /* prevent division by
                                                                                                                 * zero in a case of
                                multiple lexize */ )
                        SumDist += 1.0 / (CurExtPos - PrevExtPos);
index b3c4d9a808190f45ada53ae436feaf2ce00a0992..a6728cd81f6eb9313a4585552dcc9263892b52b0 100644 (file)
@@ -342,7 +342,7 @@ window_lag(PG_FUNCTION_ARGS)
 
 /*
  * lag_with_offset
- * returns the value of VE evelulated on a row that is OFFSET
+ * returns the value of VE evaluated on a row that is OFFSET
  * rows before the current row within a partition,
  * per spec.
  */
index 9c3d096d9999cfe33e2fe06bc3a87e2c6fe48c0e..8e25616174f3a1a55858d5bb7b4a0b714dedacfe 100644 (file)
@@ -1121,7 +1121,7 @@ RelationInitPhysicalAddr(Relation relation)
                 * points to the current file since the older file will be gone (or
                 * truncated). The new file will still contain older rows so lookups
                 * in them will work correctly. This wouldn't work correctly if
-                * rewrites were allowed to change the schema in a noncompatible way,
+                * rewrites were allowed to change the schema in an incompatible way,
                 * but those are prevented both on catalog tables and on user tables
                 * declared as additional catalog tables.
                 */
index 2b09076b61aedd3fb76fdc4d9891ef0d273813ed..53d31e1b077edd91f395b3bb54745a4c4c442508 100644 (file)
@@ -880,7 +880,7 @@ get_func_arg_info(HeapTuple procTup,
 /*
  * get_func_trftypes
  *
- * Returns a number of transformated types used by function.
+ * Returns the number of transformed types used by function.
  */
 int
 get_func_trftypes(HeapTuple procTup,
index 5dba5d2a5ba59fed30d6b9b44b712745845bdab7..4a7ceb53ea4c75ff345598c55939d183cff52715 100644 (file)
@@ -1093,7 +1093,7 @@ process_settings(Oid databaseid, Oid roleid)
 
        relsetting = heap_open(DbRoleSettingRelationId, AccessShareLock);
 
-       /* read all the settings under the same snapsot for efficiency */
+       /* read all the settings under the same snapshot for efficiency */
        snapshot = RegisterSnapshot(GetCatalogSnapshot(DbRoleSettingRelationId));
 
        /* Later settings are ignored if set earlier. */
index 788910157de48b3f2f1cf1d844aa0d7cac10a6bf..cf7b82b15f23258bdc14c79050f9fe64c112514a 100644 (file)
@@ -18,7 +18,7 @@ OBJS = guc.o help_config.o pg_rusage.o ps_status.o rls.o \
        sampling.o superuser.o timeout.o tzparser.o
 
 # This location might depend on the installation directories. Therefore
-# we can't subsitute it into pg_config.h.
+# we can't substitute it into pg_config.h.
 ifdef krb_srvtab
 override CPPFLAGS += -DPG_KRB_SRVTAB='"$(krb_srvtab)"'
 endif
index 9cc780ee10f81159bb6d409d5dd302ab01c709da..ad612f3c6bc33abb416449db4757bfbbb98af775 100644 (file)
@@ -1597,7 +1597,7 @@ HeapTupleHeaderIsOnlyLocked(HeapTupleHeader tuple)
 }
 
 /*
- * check whether the transaciont id 'xid' is in the pre-sorted array 'xip'.
+ * check whether the transaction id 'xid' is in the pre-sorted array 'xip'.
  */
 static bool
 TransactionIdInArray(TransactionId xid, TransactionId *xip, Size num)
index be6dbca056636a0bc05fc169c275f8032e9cf56e..7bc4aff93e8f50f8b3d84e773e83a2c5ea253c18 100644 (file)
@@ -203,7 +203,7 @@ InitArchiveFmt_Custom(ArchiveHandle *AH)
  *
  * Optional.
  *
- * Set up extrac format-related TOC data.
+ * Set up extract format-related TOC data.
 */
 static void
 _ArchiveEntry(ArchiveHandle *AH, TocEntry *te)
index b5c06f1d48e4ac48bd397062415dce9a96721fcf..c7f5206fee4aa20b11efc5565af624c63ad2d49c 100644 (file)
@@ -689,7 +689,7 @@ StoreQueryTuple(const PGresult *result)
                        char       *varname;
                        char       *value;
 
-                       /* concate prefix and column name */
+                       /* concatenate prefix and column name */
                        varname = psprintf("%s%s", pset.gset_prefix, colname);
 
                        if (!PQgetisnull(result, 0, i))
index de72b9a5ae01f2940c2bc2fd4e651fa535d34275..2798aa3fa965f5d0e59f38cad57bed2bacd8c6c6 100644 (file)
@@ -1965,7 +1965,7 @@ describeOneTableDetails(const char *schemaname,
                                printTableAddFooter(&cont, _("Check constraints:"));
                                for (i = 0; i < tuples; i++)
                                {
-                                       /* untranslated contraint name and def */
+                                       /* untranslated constraint name and def */
                                        printfPQExpBuffer(&buf, "    \"%s\" %s",
                                                                          PQgetvalue(result, i, 0),
                                                                          PQgetvalue(result, i, 1));
@@ -2954,7 +2954,7 @@ listTables(const char *tabtypes, const char *pattern, bool verbose, bool showSys
        if (verbose)
        {
                /*
-                * As of PostgreSQL 9.0, use pg_table_size() to show a more acurate
+                * As of PostgreSQL 9.0, use pg_table_size() to show a more accurate
                 * size of a table, including FSM, VM and TOAST tables.
                 */
                if (pset.sversion >= 90000)
index 6bfc1ae1671d28bc252c1ef710579d91693e8456..b688ad952adb28a8786dafde8d1b9e30cc70d6e6 100644 (file)
@@ -63,7 +63,7 @@ typedef enum
        SYNCHRONOUS_COMMIT_REMOTE_FLUSH         /* wait for local and remote flush */
 }      SyncCommitLevel;
 
-/* Define the default setting for synchonous_commit */
+/* Define the default setting for synchronous_commit */
 #define SYNCHRONOUS_COMMIT_ON  SYNCHRONOUS_COMMIT_REMOTE_FLUSH
 
 /* Synchronous commit level */
index 92c52021ffad74e5ace9f98ad041ded6c5a9c17c..0e21f35bc27338cde733a358f920e81b1aeb2718 100644 (file)
@@ -979,7 +979,7 @@ typedef NameData *Name;
 /* gettext domain name mangling */
 
 /*
- * To better support parallel installations of major PostgeSQL
+ * To better support parallel installations of major PostgreSQL
  * versions as well as parallel installations of major library soname
  * versions, we mangle the gettext domain name by appending those
  * version numbers.  The coding rule ought to be that wherever the
index b0d74f115a1bb5ab336ef336a9d6b144ab1d8cc8..78fcdc4f72e13a3034c16adcd7f1987a917a6597 100644 (file)
@@ -856,7 +856,7 @@ typedef LONG slock_t;
 #define SPIN_DELAY() spin_delay()
 
 /* If using Visual C++ on Win64, inline assembly is unavailable.
- * Use a _mm_pause instrinsic instead of rep nop.
+ * Use a _mm_pause intrinsic instead of rep nop.
  */
 #if defined(_WIN64)
 static __forceinline void
index 61811087108680115cae1bf8e8fea2dbb354f2cd..d5a463d9404a3600b631a2dfa666ba244cb0f88c 100644 (file)
@@ -1,8 +1,8 @@
 /* src/interfaces/ecpg/ecpglib/execute.c */
 
 /*
- * The aim is to get a simpler inteface to the database routines.
- * All the tidieous messing around with tuples is supposed to be hidden
+ * The aim is to get a simpler interface to the database routines.
+ * All the tedious messing around with tuples is supposed to be hidden
  * by this function.
  */
 /* Author: Linus Tolke
index 3b0855f7225b8687481ebec2fb33c5718a62a645..7216b432d461f711654f8ef694a3ef90b9b59b9b 100644 (file)
@@ -324,7 +324,7 @@ PGTYPESdate_fmt_asc(date dDate, const char *fmtstring, char *outbuf)
  *
  * function works as follows:
  *      - first we analyze the parameters
- *      - if this is a special case with no delimiters, add delimters
+ *      - if this is a special case with no delimiters, add delimiters
  *      - find the tokens. First we look for numerical values. If we have found
  *        less than 3 tokens, we check for the months' names and thereafter for
  *        the abbreviations of the months' names.
index 120794550d638063de81b75a769aa44f5c7efa4a..a93d074de211bc5e9cbae519695ba1e9c6db35e8 100644 (file)
@@ -1368,11 +1368,11 @@ PGTYPESnumeric_cmp(numeric *var1, numeric *var2)
 {
        /* use cmp_abs function to calculate the result */
 
-       /* both are positive: normal comparation with cmp_abs */
+       /* both are positive: normal comparison with cmp_abs */
        if (var1->sign == NUMERIC_POS && var2->sign == NUMERIC_POS)
                return cmp_abs(var1, var2);
 
-       /* both are negative: return the inverse of the normal comparation */
+       /* both are negative: return the inverse of the normal comparison */
        if (var1->sign == NUMERIC_NEG && var2->sign == NUMERIC_NEG)
        {
                /*
index 672f0b45d48e6e207d10e0765984b0d530aff5a8..2562366bbedbd6183f266738f664e729e5e3a443 100644 (file)
@@ -207,7 +207,7 @@ create_questionmarks(char *name, bool array)
 
        /* In case we have a struct, we have to print as many "?" as there are attributes in the struct
         * An array is only allowed together with an element argument
-        * This is essantially only used for inserts, but using a struct as input parameter is an error anywhere else
+        * This is essentially only used for inserts, but using a struct as input parameter is an error anywhere else
         * so we don't have to worry here. */
 
        if (p->type->type == ECPGt_struct || (array && p->type->type == ECPGt_array && p->type->u.element->type == ECPGt_struct))
index 31e765ccd39ae083834e88df8e6dddaedee7fd61..1c108795de995cbc4f801d9fa03267e210c4aa6d 100644 (file)
@@ -355,7 +355,7 @@ ECPGExecuteImmediateStmt: EXECUTE IMMEDIATE execstring
                          $$ = $3;
                        };
 /*
- * variable decalartion outside exec sql declare block
+ * variable declaration outside exec sql declare block
  */
 ECPGVarDeclaration: single_vt_declaration;
 
@@ -707,7 +707,7 @@ struct_union_type_with_symbol: s_struct_union_symbol
                        free(forward_name);
                        forward_name = NULL;
 
-                       /* This is essantially a typedef but needs the keyword struct/union as well.
+                       /* This is essentially a typedef but needs the keyword struct/union as well.
                         * So we create the typedef for each struct definition with symbol */
                        for (ptr = types; ptr != NULL; ptr = ptr->next)
                        {
@@ -1275,7 +1275,7 @@ descriptor_item:  SQL_CARDINALITY                 { $$ = ECPGd_cardinality; }
                ;
 
 /*
- * set/reset the automatic transaction mode, this needs a differnet handling
+ * set/reset the automatic transaction mode, this needs a different handling
  * as the other set commands
  */
 ECPGSetAutocommit:     SET SQL_AUTOCOMMIT '=' on_off   { $$ = $4; }
@@ -1287,7 +1287,7 @@ on_off: ON                                { $$ = mm_strdup("on"); }
                ;
 
 /*
- * set the actual connection, this needs a differnet handling as the other
+ * set the actual connection, this needs a different handling as the other
  * set commands
  */
 ECPGSetConnection:     SET CONNECTION TO connection_object { $$ = $4; }
index 74557425a93fbbeb9ea0bfb43878ead0ff253908..83bd41b3776caa26bd4320909264226844538d60 100644 (file)
@@ -550,7 +550,7 @@ sub dump_fields
                        if ($len == 1)
                        {
 
-                               # Straight assignement
+                               # Straight assignment
                                $str = ' $$ = ' . $flds_new[0] . ';';
                                add_to_buffer('rules', $str);
                        }
index 834b5ec295b5a88288ab49df37e611a8b69dafbc..de94a9ec914958bb2de037346420281b2980e5b4 100644 (file)
@@ -794,7 +794,7 @@ pg_fe_getauthname(PQExpBuffer errorMessage)
  * be sent in cleartext if it is encrypted on the client side.  This is
  * good because it ensures the cleartext password won't end up in logs,
  * pg_stat displays, etc.  We export the function so that clients won't
- * be dependent on low-level details like whether the enceyption is MD5
+ * be dependent on low-level details like whether the encryption is MD5
  * or something else.
  *
  * Arguments are the cleartext password, and the SQL name of the user it
index bb12f4d9093c7a9f35dfe528aaadbbb453790fcc..ea6cf65832cd17df6f8b600e9b0f1b8337fc4dd7 100644 (file)
@@ -631,7 +631,7 @@ extern void pq_reset_sigpipe(sigset_t *osigset, bool sigpipe_pending,
 #endif
 
 /*
- * The SSL implementatation provides these functions (fe-secure-openssl.c)
+ * The SSL implementation provides these functions (fe-secure-openssl.c)
  */
 extern void pgtls_init_library(bool do_ssl, int do_crypto);
 extern int     pgtls_init(PGconn *conn);
index ee91f810219c8cd4c5d8f02c4b2794a1470a7401..bcab287837a673b8ecb622e83ce836a0ce61abd9 100644 (file)
@@ -32,7 +32,7 @@
 
 #include "win32.h"
 
-/* Declared here to avoid pulling in all includes, which causes name collissions */
+/* Declared here to avoid pulling in all includes, which causes name collisions */
 #ifdef ENABLE_NLS
 extern char *libpq_gettext(const char *msgid) pg_attribute_format_arg(1);
 #else
index 5ea0c66e98c18dd7ec5dc9cbb4a5f11419d0aa47..31d06cb3b0ba3566bd524f5e12eccb251b48447e 100644 (file)
@@ -79,7 +79,7 @@ to be installed on your system.
 If this option is given, a copy of each file will be saved with
 the given suffix that contains the suggested changes. This does
 not require any external programs. Note that this does not
-automagially add a dot between the original filename and the
+automagically add a dot between the original filename and the
 suffix. If you want the dot, you have to include it in the option
 argument.
 
@@ -4364,9 +4364,9 @@ DPPP_(my_vload_module)(U32 flags, SV *name, SV *ver, va_list *args)
 
     OP * const modname = newSVOP(OP_CONST, 0, name);
     /* 5.005 has a somewhat hacky force_normal that doesn't croak on
-       SvREADONLY() if PL_compling is true. Current perls take care in
+       SvREADONLY() if PL_compiling is true. Current perls take care in
        ck_require() to correctly turn off SvREADONLY before calling
-       force_normal_flags(). This seems a better fix than fudging PL_compling
+       force_normal_flags(). This seems a better fix than fudging PL_compiling
      */
     SvREADONLY_off(((SVOP*)modname)->op_sv);
     modname->op_private |= OPpCONST_BARE;
index 7bdf4738b2c46fc0f19c8297bf2a7862f33183b7..7c5cd7a58369381cbdb46350524218422bb243b1 100644 (file)
@@ -274,7 +274,7 @@ PLy_traceback(PyObject *e, PyObject *v, PyObject *tb,
                        long            plain_lineno;
 
                        /*
-                        * The second frame points at the internal function, but to mimick
+                        * The second frame points at the internal function, but to mimic
                         * Python error reporting we want to say <module>.
                         */
                        if (*tb_depth == 1)
index b01151b0fc0f5f1105817fa23e8da0b78a7517db..38d07a8eeef149cbbb9b68219754df885fcd9f8b 100644 (file)
@@ -71,7 +71,7 @@ typedef union PLyTypeOutput
        PLyObToTuple r;
 } PLyTypeOutput;
 
-/* all we need to move Postgresql data to Python objects,
+/* all we need to move PostgreSQL data to Python objects,
  * and vice versa
  */
 typedef struct PLyTypeInfo
index 1e214960d183feab8f176d0f45d12541317e6226..5e1d51d0bd06d3a7ea424d73cd573859d9fe94c9 100644 (file)
@@ -7,7 +7,7 @@
 # be changed and a report of the closed day's receipts subsequently
 # run which will miss a receipt from the date which has been closed.
 #
-# There are only six permuations which must cause a serialization failure.
+# There are only six permutations which must cause a serialization failure.
 # Failure cases are where s1 overlaps both s2 and s3, but s2 commits before
 # s3 executes its first SELECT.
 #
index d67064068e034f7d176bba054182fc1fc51ec3d3..277097125ac1a0f5a1be72ff12e2aefe85439a06 100644 (file)
@@ -2,7 +2,7 @@
 #
 # Small, simple test showing read-only anomalies.
 #
-# There are only four permuations which must cause a serialization failure.
+# There are only four permutations which must cause a serialization failure.
 # Required failure cases are where s2 overlaps both s1 and s3, but s1
 # commits before s3 executes its first SELECT.
 #
index 11255178fa6397decdf37fd948154a8d8dbac898..28032328d78e8e95edd19e08b86b2e63089492b1 100644 (file)
@@ -310,7 +310,7 @@ INSERT INTO tmp3 values (5,50);
 -- Try (and fail) to add constraint due to invalid source columns
 ALTER TABLE tmp3 add constraint tmpconstr foreign key(c) references tmp2 match full;
 ERROR:  column "c" referenced in foreign key constraint does not exist
--- Try (and fail) to add constraint due to invalide destination columns explicitly given
+-- Try (and fail) to add constraint due to invalid destination columns explicitly given
 ALTER TABLE tmp3 add constraint tmpconstr foreign key(a) references tmp2(b) match full;
 ERROR:  column "b" referenced in foreign key constraint does not exist
 -- Try (and fail) to add constraint due to invalid data
@@ -2760,7 +2760,7 @@ ALTER TABLE unlogged3 SET LOGGED; -- skip self-referencing foreign key
 ALTER TABLE unlogged2 SET LOGGED; -- fails because a foreign key to an unlogged table exists
 ERROR:  could not change table "unlogged2" to logged because it references unlogged table "unlogged1"
 ALTER TABLE unlogged1 SET LOGGED;
--- check relpersistence of an unlogged table after changing to permament
+-- check relpersistence of an unlogged table after changing to permanent
 SELECT relname, relkind, relpersistence FROM pg_class WHERE relname ~ '^unlogged1'
 UNION ALL
 SELECT 'toast table', t.relkind, t.relpersistence FROM pg_class r JOIN pg_class t ON t.oid = r.reltoastrelid WHERE r.relname ~ '^unlogged1'
index 4f4bf41973afbab96e097cf65c701f0bf2c91238..3e255fbded8de20b646e38dc033a96ba1e91d4a5 100644 (file)
@@ -23,7 +23,7 @@ UPDATE toasttest SET cnt = cnt +1 RETURNING substring(toasttest::text, 1, 200);
  ("one-toasted,one-null",1,,12345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123
 (4 rows)
 
--- modification without modifying asigned value
+-- modification without modifying assigned value
 UPDATE toasttest SET cnt = cnt +1, f1 = f1 RETURNING substring(toasttest::text, 1, 200);
                                                                                                 substring                                                                                                 
 ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
@@ -61,7 +61,7 @@ SELECT substring(toasttest::text, 1, 200) FROM toasttest;
  ("one-toasted,one-null",4,,12345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123
 (4 rows)
 
--- check we didn't screw with main/toast tuple visiblity
+-- check we didn't screw with main/toast tuple visibility
 VACUUM FREEZE toasttest;
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
                                                                                                 substring                                                                                                 
@@ -95,7 +95,7 @@ UPDATE toasttest SET cnt = cnt +1 RETURNING substring(toasttest::text, 1, 200);
  ("one-toasted,one-null",5,,12345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123
 (4 rows)
 
--- modification without modifying asigned value
+-- modification without modifying assigned value
 UPDATE toasttest SET cnt = cnt +1, f1 = f1 RETURNING substring(toasttest::text, 1, 200);
                                                                                                 substring                                                                                                 
 ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
@@ -135,7 +135,7 @@ SELECT substring(toasttest::text, 1, 200) FROM toasttest;
  ("one-toasted,one-null, via indirect",0,1234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890
 (5 rows)
 
--- check we didn't screw with main/toast tuple visiblity
+-- check we didn't screw with main/toast tuple visibility
 VACUUM FREEZE toasttest;
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
                                                                                                 substring                                                                                                 
index faef1e74688f65c08769d29212be6478f77a1f8b..59168b039b591fdf1b4c56589ebc2a6424a240af 100644 (file)
@@ -289,7 +289,7 @@ insert into insertconflicttest values (12, 'Date') on conflict (lower(fruit), ke
 ERROR:  there is no unique or exclusion constraint matching the ON CONFLICT specification
 drop index comp_key_index;
 --
--- Partial index tests, no inference predicate specificied
+-- Partial index tests, no inference predicate specified
 --
 create unique index part_comp_key_index on insertconflicttest(key, fruit) where key < 5;
 create unique index expr_part_comp_key_index on insertconflicttest(key, lower(fruit)) where key < 5;
index c33acc562e4549e0ff928f06209c5f8a26ff77b7..d71da0b8137efd61afbe53afeeb64e5fed4fa7fc 100644 (file)
@@ -4263,7 +4263,7 @@ select * from
 -- Test hints given on incorrect column references are useful
 --
 select t1.uunique1 from
-  tenk1 t1 join tenk2 t2 on t1.two = t2.two; -- error, prefer "t1" suggestipn
+  tenk1 t1 join tenk2 t2 on t1.two = t2.two; -- error, prefer "t1" suggestion
 ERROR:  column t1.uunique1 does not exist
 LINE 1: select t1.uunique1 from
                ^
index ec11c852ad12b1b2a425488bbaaec1a0a462d61a..b14f278178309a42f8ce7e25778ac544ce9314d2 100644 (file)
@@ -292,7 +292,7 @@ SELECT * FROM tvvm;
 -- test diemv when the mv does not exist
 DROP MATERIALIZED VIEW IF EXISTS no_such_mv;
 NOTICE:  materialized view "no_such_mv" does not exist, skipping
--- make sure invalid comination of options is prohibited
+-- make sure invalid combination of options is prohibited
 REFRESH MATERIALIZED VIEW CONCURRENTLY tvmm WITH NO DATA;
 ERROR:  CONCURRENTLY and WITH NO DATA options cannot be used together
 -- no tuple locks on materialized views
index ac7187559c0afca7314a253eff5ff8ce6b92a05c..e9f1f6ea2ab9dc41823e1c167834e6de26cf7d74 100644 (file)
@@ -1423,7 +1423,7 @@ select * from WSlot order by slotname;
 
 --
 -- Install the central phone system and create the phone numbers.
--- They are weired on insert to the patchfields. Again the
+-- They are wired on insert to the patchfields. Again the
 -- triggers automatically tell the PSlots to update their
 -- backlink field.
 --
index eb7145c55a2ed1e9e40c26b758edf31d56703585..0da54a0544738e123999b483768fe2b5925e75cd 100644 (file)
@@ -98,7 +98,7 @@ Indexes:
 
 -- succeed, oid unique index
 ALTER TABLE test_replica_identity REPLICA IDENTITY USING INDEX test_replica_identity_oid_idx;
--- succeed, nondeferrable unique constraint over nonullable cols
+-- succeed, nondeferrable unique constraint over nonnullable cols
 ALTER TABLE test_replica_identity REPLICA IDENTITY USING INDEX test_replica_identity_unique_nondefer;
 -- succeed unique index over nonnullable cols
 ALTER TABLE test_replica_identity REPLICA IDENTITY USING INDEX test_replica_identity_keyab_key;
index 8f88c025e8fb10f6203ca86ee4584acbe11a0f09..3ad007c55e936784984c4711552f7e2c64ffa4e0 100644 (file)
@@ -428,7 +428,7 @@ LINE 1: ALTER USER NONE SET application_name to 'BOMB';
                    ^
 ALTER USER nonexistent SET application_name to 'BOMB'; -- error
 ERROR:  role "nonexistent" does not exist
--- CREAETE SCHEMA
+-- CREATE SCHEMA
 set client_min_messages to error;
 CREATE SCHEMA newschema1 AUTHORIZATION CURRENT_USER;
 CREATE SCHEMA newschema2 AUTHORIZATION "current_user";
index 28058ff008fb7f78378b718f8b0d7c641dc00cc9..899ab445dbb25541ca5f63da7d87115074f16d4a 100644 (file)
@@ -938,7 +938,7 @@ CREATE TABLE shoe_data (
        shoename   char(10),      -- primary key
        sh_avail   integer,       -- available # of pairs
        slcolor    char(10),      -- preferred shoelace color
-       slminlen   float,         -- miminum shoelace length
+       slminlen   float,         -- minimum shoelace length
        slmaxlen   float,         -- maximum shoelace length
        slunit     char(8)        -- length unit
 );
index 9df1434a14d08ecc224904cb8b2e2f887cc47f89..89230ad0204d9fb54d45358c6502613ec6115aa8 100644 (file)
@@ -191,7 +191,7 @@ SELECT ts_lexize('hunspell', 'footballyklubber');
  {foot,ball,klubber}
 (1 row)
 
--- Synonim dictionary
+-- Synonym dictionary
 CREATE TEXT SEARCH DICTIONARY synonym (
                                                Template=synonym,
                                                Synonyms=synonym_sample
index b593163ea34f468a90d6df94ff41f092eff467b9..bdf6d4247d63ea842303c12b2e76e9b52fb1cdd4 100644 (file)
@@ -255,7 +255,7 @@ INSERT INTO tmp3 values (5,50);
 -- Try (and fail) to add constraint due to invalid source columns
 ALTER TABLE tmp3 add constraint tmpconstr foreign key(c) references tmp2 match full;
 
--- Try (and fail) to add constraint due to invalide destination columns explicitly given
+-- Try (and fail) to add constraint due to invalid destination columns explicitly given
 ALTER TABLE tmp3 add constraint tmpconstr foreign key(a) references tmp2(b) match full;
 
 -- Try (and fail) to add constraint due to invalid data
@@ -1775,7 +1775,7 @@ CREATE UNLOGGED TABLE unlogged3(f1 SERIAL PRIMARY KEY, f2 INTEGER REFERENCES unl
 ALTER TABLE unlogged3 SET LOGGED; -- skip self-referencing foreign key
 ALTER TABLE unlogged2 SET LOGGED; -- fails because a foreign key to an unlogged table exists
 ALTER TABLE unlogged1 SET LOGGED;
--- check relpersistence of an unlogged table after changing to permament
+-- check relpersistence of an unlogged table after changing to permanent
 SELECT relname, relkind, relpersistence FROM pg_class WHERE relname ~ '^unlogged1'
 UNION ALL
 SELECT 'toast table', t.relkind, t.relpersistence FROM pg_class r JOIN pg_class t ON t.oid = r.reltoastrelid WHERE r.relname ~ '^unlogged1'
index d502480ad3fb2fc498c11b40b6aee6459293ef25..18b6cc3a95f2d1584eb612cf900c27022c54cdf6 100644 (file)
@@ -11,7 +11,7 @@ SELECT descr, substring(make_tuple_indirect(toasttest)::text, 1, 200) FROM toast
 -- modification without changing varlenas
 UPDATE toasttest SET cnt = cnt +1 RETURNING substring(toasttest::text, 1, 200);
 
--- modification without modifying asigned value
+-- modification without modifying assigned value
 UPDATE toasttest SET cnt = cnt +1, f1 = f1 RETURNING substring(toasttest::text, 1, 200);
 
 -- modification modifying, but effectively not changing
@@ -20,7 +20,7 @@ UPDATE toasttest SET cnt = cnt +1, f1 = f1||'' RETURNING substring(toasttest::te
 UPDATE toasttest SET cnt = cnt +1, f1 = '-'||f1||'-' RETURNING substring(toasttest::text, 1, 200);
 
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
--- check we didn't screw with main/toast tuple visiblity
+-- check we didn't screw with main/toast tuple visibility
 VACUUM FREEZE toasttest;
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
 
@@ -42,7 +42,7 @@ CREATE TRIGGER toasttest_update_indirect
 -- modification without changing varlenas
 UPDATE toasttest SET cnt = cnt +1 RETURNING substring(toasttest::text, 1, 200);
 
--- modification without modifying asigned value
+-- modification without modifying assigned value
 UPDATE toasttest SET cnt = cnt +1, f1 = f1 RETURNING substring(toasttest::text, 1, 200);
 
 -- modification modifying, but effectively not changing
@@ -53,7 +53,7 @@ UPDATE toasttest SET cnt = cnt +1, f1 = '-'||f1||'-' RETURNING substring(toastte
 INSERT INTO toasttest(descr, f1, f2) VALUES('one-toasted,one-null, via indirect', repeat('1234567890',30000), NULL);
 
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
--- check we didn't screw with main/toast tuple visiblity
+-- check we didn't screw with main/toast tuple visibility
 VACUUM FREEZE toasttest;
 SELECT substring(toasttest::text, 1, 200) FROM toasttest;
 
index 116cf763f956df0cbe0df9cd563cfdff8e7b5f2f..df3a9b59b5b0882549c1d9aa70b6330fee2f7064 100644 (file)
@@ -138,7 +138,7 @@ insert into insertconflicttest values (12, 'Date') on conflict (lower(fruit), ke
 drop index comp_key_index;
 
 --
--- Partial index tests, no inference predicate specificied
+-- Partial index tests, no inference predicate specified
 --
 create unique index part_comp_key_index on insertconflicttest(key, fruit) where key < 5;
 create unique index expr_part_comp_key_index on insertconflicttest(key, lower(fruit)) where key < 5;
index 9e212bb169ffe8ac09e59af242e0085f897878bd..fd05f5c8a324279016afb4bf29fa194c72865e20 100644 (file)
@@ -1454,7 +1454,7 @@ select * from
 --
 
 select t1.uunique1 from
-  tenk1 t1 join tenk2 t2 on t1.two = t2.two; -- error, prefer "t1" suggestipn
+  tenk1 t1 join tenk2 t2 on t1.two = t2.two; -- error, prefer "t1" suggestion
 select t2.uunique1 from
   tenk1 t1 join tenk2 t2 on t1.two = t2.two; -- error, prefer "t2" suggestion
 select uunique1 from
index 8e623cc1ebcceb1f9698b649aeffbc337323bca5..835934449f5850e2b22b59428b0eeec4b50d07de 100644 (file)
@@ -92,7 +92,7 @@ SELECT * FROM tvvm;
 -- test diemv when the mv does not exist
 DROP MATERIALIZED VIEW IF EXISTS no_such_mv;
 
--- make sure invalid comination of options is prohibited
+-- make sure invalid combination of options is prohibited
 REFRESH MATERIALIZED VIEW CONCURRENTLY tvmm WITH NO DATA;
 
 -- no tuple locks on materialized views
index 9b30ff1434e1a93da575c4a776eea285adac0843..ba59748ef790c8377a850674eb3a39c65f6e6b99 100644 (file)
@@ -1350,7 +1350,7 @@ select * from WSlot order by slotname;
 
 --
 -- Install the central phone system and create the phone numbers.
--- They are weired on insert to the patchfields. Again the
+-- They are wired on insert to the patchfields. Again the
 -- triggers automatically tell the PSlots to update their
 -- backlink field.
 --
index ba3fb347811be9a29d3ff15668643803c565f21f..bb71fdac96ba8a5f54aab33fd89ff2ada93fe69a 100644 (file)
@@ -56,7 +56,7 @@ SELECT relreplident FROM pg_class WHERE oid = 'test_replica_identity'::regclass;
 -- succeed, oid unique index
 ALTER TABLE test_replica_identity REPLICA IDENTITY USING INDEX test_replica_identity_oid_idx;
 
--- succeed, nondeferrable unique constraint over nonullable cols
+-- succeed, nondeferrable unique constraint over nonnullable cols
 ALTER TABLE test_replica_identity REPLICA IDENTITY USING INDEX test_replica_identity_unique_nondefer;
 
 -- succeed unique index over nonnullable cols
index e8c6b335ec2e897d68c0795c3fba10c0162359d5..a14e462432428710f0834bfdb0662cd80ba7aaa3 100644 (file)
@@ -171,7 +171,7 @@ ALTER USER PUBLIC SET application_name to 'BOMB'; -- error
 ALTER USER NONE SET application_name to 'BOMB'; -- error
 ALTER USER nonexistent SET application_name to 'BOMB'; -- error
 
--- CREAETE SCHEMA
+-- CREATE SCHEMA
 set client_min_messages to error;
 CREATE SCHEMA newschema1 AUTHORIZATION CURRENT_USER;
 CREATE SCHEMA newschema2 AUTHORIZATION "current_user";
index 4299a5b172298e701672079ac310e1948ddc3753..eb4176d17851d089927c0875932295dd278b43e2 100644 (file)
@@ -522,7 +522,7 @@ CREATE TABLE shoe_data (
        shoename   char(10),      -- primary key
        sh_avail   integer,       -- available # of pairs
        slcolor    char(10),      -- preferred shoelace color
-       slminlen   float,         -- miminum shoelace length
+       slminlen   float,         -- minimum shoelace length
        slmaxlen   float,         -- maximum shoelace length
        slunit     char(8)        -- length unit
 );
index 55afcec906681ac32e0fe56729c3c065d86ab663..8100c6bdc8f6a51fc7d08fadf29b96971895a308 100644 (file)
@@ -48,7 +48,7 @@ SELECT ts_lexize('hunspell', 'footballklubber');
 SELECT ts_lexize('hunspell', 'ballyklubber');
 SELECT ts_lexize('hunspell', 'footballyklubber');
 
--- Synonim dictionary
+-- Synonym dictionary
 CREATE TEXT SEARCH DICTIONARY synonym (
                                                Template=synonym,
                                                Synonyms=synonym_sample
index cbdb44e67a6ac8ddd07268638c8e727895322a68..761c6f533bed8c2b269bc70b8831d88add47872f 100644 (file)
@@ -7,7 +7,7 @@
 # - ssl/root+client_ca.crt as the CA root for validating client certs.
 # - reject non-SSL connections
 # - a database called trustdb that lets anyone in
-# - another database called certdb that uses certificate authentiction, ie.
+# - another database called certdb that uses certificate authentication, ie.
 #   the client must present a valid certificate signed by the client CA
 # - two users, called ssltestuser and anotheruser.
 #