Background of the Invention
Field of the Invention
[0001] The present invention relates to a speech coding method, and an apparatus for the
same, for performing high efficiency speech coding for use in digital cellular telephone
systems. More concretely, the present invention relates to a parameter coding method,
and an apparatus for the same, for encoding various types of parameters such as spectral
envelope information and power information, which are to be used in the aforementioned
speech coding method and apparatus for the same; the present invention further relates
to a multistage vector quantization method, and an apparatus for the same, for performing
multistage vector quantization for use in the aforementioned speech coding process
and apparatus for the same.
Background Art
[0002] Recently, within such technological fields as digital cellular transmission and speech
storage service, with the objective of effectively utilizing electric wave and storage
media, various high efficiency coding methods are in use. Among these various coding
methods, code-excited linear prediction coding (CELP), vector sum excited linear prediction
coding (VSELP), and multi-pulse coding represent high efficiency coding methods which
code speech at a coding speed of approximately 8 kb/s.
[0003] Fig. 15 is a block diagram showing a constructional example of a speech coding apparatus
utilizing a conventional CELP coding method. The analog speech signal is sampled at
a sampling frequency of 8 kHz, and the generated input speech data is inputted from
an input terminal 1. In a linear prediction coding (LPC) analyzing portion 2, a plurality
of input speech data samples inputted from the input terminal 1 are grouped as one
frame in one vector (hereafter referred to as "an input speech vector"), and linear
prediction analysis is performed for this input speech vector, and LPC coefficients
are then calculated. In an LSP coefficient quantizing portion 4, the LPC coefficients
are quantized, and the LPC coefficients of a synthesis filter 3 possessing the transfer
function {1/A(z)} is then set.
[0004] An adaptive codebook 5 is formed in a manner such that a plurality of pitch period
vectors, corresponding to pitch periods of the voiced intervals in the speech, are
stored. In a gain portion 6, a gain set by a distortion power calculating portion
13 explained hereafter is multiplied by the pitch period vector, which is selected
and outputted from the adaptive codebook 5 by the distortion power calculating portion
13 and is then outputted from the gain portion 6.
[0005] A plurality of noise waveform vectors (e.g., random vectors) corresponding to the
unvoiced intervals in the speech are previously stored in a random codebook 7. In
a gain portion 8, the gain set by distortion power calculating portion 13 is multiplied
by the noise waveform vector, which is selected and outputted from the random codebook
7 by the distortion power calculating portion 13, and outputted from gain portion
8.
[0006] In an adder 9, the output vector of the gain portion 6 and the output vector of the
gain portion 8 are added, and the output vector of the adder 9 is then supplied to
the synthesis filter 3 as an excitation vector. In synthesis filter 3, the speech
vector (hereafter referred to as "the synthetic speech vector") is synthesized based
on the set LPC coefficient.
[0007] In addition, in a power quantizing portion 10, the power of the input speech vector
is first calculated, and this power is then quantized. In this manner, using the quantized
power of the input speech vector, the input speech vector and the pitch period vector
are normalized. In a subtracter 11, the synthetic speech vector is subtracted from
the normalized input speech vector outputted from the power quantizing portion 10,
and the distortion data is calculated.
[0008] Subsequently, the distortion data is weighted in a perceptual weighting filter 12
according to the coefficients corresponding to the perceptual characteristics of humans.
The aforementioned perceptual weighting filter 12 utilizes a masking effect of the
perceptual characteristics of humans, and reduces the auditory senses of quantized
random noise in the formant region of the speech data.
[0009] A distortion power calculating portion 13 calculates the power of the distortion
data outputted from the perceptual weighting filter 12, selects the pitch period vector
and the noise waveform vector, which will minimize the power of the distortion data,
from the adaptive codebook 5 and the random codebook 7, respectively, and sets the
gains in each of the gain portions 6 and 8. In this manner, the information (codes)
and gains selected according to the LPC coefficients, power of the input speech vector,
the pitch period vector and the noise waveform vector, are converted into codes of
bit series, outputted, and then transmitted.
[0010] Fig. 16 is a block diagram showing a constructional example of a speech coding apparatus
utilizing a conventional VSELP coding method. In this Fig. 16, components which correspond
to those shown in Fig. 15, will retain the original identifying numeral, and their
description will not herein be repeated. As seen from Fig. 16, the construction of
this speech coding apparatus utilizing the VSELP coding method is similar overall
to that of the aforementioned speech coding apparatus utilizing the CELP coding method.
However, instead of multiplying each separately gain with the selected pitch period
vector and noise waveform vector respectively, as in the CELP coding method, the VSELP
coding method, in order to raise the quantization efficiency, utilizes a vector quantization
method which simultaneously determines the gains to be multiplied with the selected
pitch period vector and noise waveform vector respectively, and sets them into gain
portions 15a and 15b of a gainer 15.
[0011] The specific details of the (1) CELP coding method, (2) VSELP coding method and (3)
the multi-pulse coding method can be found by referencing respectively (1)
Schroeder, M.R., et al. (Code-Excited Linear Prediction (CELP): High-quality Speech
at Very Low Rates: Proc. ICASSP '85, 25.1.1, pp. 937-940, 1985), (2)
Gerson, I.A., et al. (Vector Sum Excited Linear Prediction (VSELP) Speech Coding at
8 kps: Proc. ICASSP '90, S9.3, pp. 461-464, 1990), and (3)
Ozawa, et al. (9.6-4.8 kbit/s Multi-pass Speech Coding Method Using Pitch Information
[translated]: Shingakushi (D-II), J72-D-II, 8, pp. 1125-1132, 1989).
[0012] In addition, a low-delay code excited linear prediction (LD-CELP) coding method is
a high efficiency coding method which encodes speech at a coding speed of 16 kb/s,
wherein due to use of a backward prediction method in regard to the LPC coefficients
and the power of the input speech vector, transmission of the LPC coefficients codes
and power codes of the input speech vector is unnecessary. Fig. 17 is a block diagram
showing a constructional example of a speech coding apparatus utilizing the conventional
LD-CELP coding method. In this Fig. 17, components which correspond to those shown
in Fig. 15, will retain the original identifying numeral, and their description will
not herein be repeated.
[0013] In a LPC analyzing portion 16, linear prediction analysis is not performed and the
LPC coefficients of the synthesis filter 3 are not calculated for the input speech
data, inputted from the input terminal 1, which is in the frame currently undergoing
quantization. Instead, a high-order linear prediction analysis of the 50th order,
including the pitch periodicity of the speech, is performed, and the LPC coefficients
of the synthesis filter 3 are calculated and determined for the previously processed
output vector of the synthesis filter 3. In this manner, the determined LPC coefficients
are set into synthesis filter 3.
[0014] Similarly, in this speech coding apparatus, after the calculation of the power of
the input speech data in the frame undergoing quantization, in the power quantizing
portion 10, the quantization of this power is not performed as in the speech coding
apparatus shown in Fig. 15. Instead, in a gain adapting portion 17, linear prediction
analysis is performed for the previously processed power of the output vector from
the gain portion 8, and the power (in other words, the predicted gain) to be provided
to the noise waveform vector selected in the current frame operation, is calculated,
determined and then set into the predicted gain portion 18.
[0015] Consequently, in the predicted gain portion 18, the predicted gain set by the gain
adapting portion 17 is multiplied by the noise waveform vector which is selected and
outputted from the random codebook 7 by the distortion power calculating portion 13.
Subsequently, the gain set by the distortion power calculating portion 13 is multiplied
by the output vector from the predicted gain portion 18 in the gain portion 8, and
then outputted. The output vector of the gain portion 8 is then supplied as an excitation
vector to the synthesis filter 3, and a synthetic speech vector is synthesized in
the synthesis filter 3 based on the set LPC coefficients.
[0016] Subsequently, in the subtracter 11, the synthetic speech vector is subtracted from
the input speech vector, and the distortion data are calculated. After this distortion
data are weighted in the perceptual weighting filter 12 using the coefficients corresponding
to human perceptual characteristics, the power of the distortion data outputted from
the perceptual weighting filter 12 is calculated, the noise waveform vector, which
will minimize the power of the distortion data, is selected from the random codebook
7, and the gain is then set in the gain portion 8. In this manner, in the code outputting
portion 14, the codes and gains selected according to the noise waveform vectors are
converted into codes of bit series, outputted and then transmitted.
[0017] As described above, in the conventional LD-CELP coding method, since synthetic speech
vectors previously processed by both speech coding and decoding apparatuses may be
used commonly, thus transmission of the LPC coefficients and power of the input speech
vector is unnecessary.
[0019] Among the aforementioned conventional speech coding methods, in the CELP speech coding,
linear prediction analysis is performed, the LPC coefficients of the synthesis filter
3 are calculated and these LPC coefficients are then quantized only for the input
speech data in the current frame undergoing quantization. Therefore, a drawback exists
in that in order to obtain, at the transmission receiver, high-quality speech which
is decoded (hereafter referred to as "the decoded speech"), a large number of bits
are necessary for the LPC coefficients quantization.
[0020] In addition, the power of the input speech vector is quantized, and the code selected
in response to the quantized power of the input speech vector is transmitted as the
coding signal, thus in the case where a transmission error of the code occurs in the
transmission line, problems exist in that undesired speech is generated in the unvoiced
intervals of the decoded speech, and the desired speech is frequently interrupted,
thereby creating decoded speech of inferior quality. In addition, quantization of
the power of the input speech vector is performed using a limited number of bits,
thus in the case where the magnitude of the input speech vector is small, a disadvantage
exists in that the quantized noise increases.
[0021] Furthermore, the noise waveform vector is represented by one noise waveform vector
stored in one random codebook 7, and the code selected in response to this noise waveform
vector is transmitted as the coding signal, thus in the case where an transmission
error of the code occurs in the transmission line, a completely different noise waveform
vector is used in the speech decoding apparatus of the transmission receiver, thereby
creating decoded speech of inferior quality.
[0022] Moreover, normally the noise waveform vector to be stored in the random codebook
uses a speech data base in which a large amount of actual speech data is stored, and
performs learning so as to match this actual speech data. However, in the case where
the noise waveform vector is represented by one noise waveform vector of one random
codebook 7, a large storage capacity is required, and thus the size of the codebook
becomes significantly large. Consequently, disadvantages exist in that the aforementioned
learning is not performed, and the noise waveform vector is not matched well with
the actual speech data.
[0023] Additionally, in the aforementioned conventional VSELP coding method, in the case
where an transmission error of the code corresponding to the gain to be multiplied
by the pitch period vector and the noise waveform vector, set simultaneously in the
transmission line, these pitch period vector and noise waveform vector are multiplied
by a completely different gain in the speech decoding apparatus of the transmission
receiver, thereby creating decoded speech of inferior quality.
[0024] Furthermore, in the aforementioned conventional CELP and VSELP coding methods, the
pitch period vector and the noise waveform vector which will minimize the power of
the distortion data, are selected from the adaptive codebook 5 and the random codebook
7 respectively. However, in order to select the most optimum pitch period vector and
noise waveform vector, since the power of the distortion data d, shown in a formula
(1) below, in a closed loop formed by means of structural elements 3, 5∼9, and 11∼13.
or structural elements 3, 5, 7, 9, 11∼13, and 15, must be calculated in the distortion
power calculating portion 13 for all pitch period vectors and noise waveform vectors
stored in the adaptive codebook 5 and the random codebook 7 respectively, there exist
disadvantages in that enormous computational complexity is required.

[0025] In the formula (1), the input speech vector whose power is quantized, is represented
by X; the pitch period vector or the noise waveform vector selected from the adaptive
codebook 5 and the random codebook 7 respectively are represented by V
j (j=1∼N; N is the codebook size); the gain set in the gain portions 6 and 8, or in
the gain portions 15a and 15b is represented by g; the impulse response coefficients
which are the coefficients of the FIR filter, in the case where the synthesis filter
3 and the perceptual weighting filter 12 are comprised by one FIR filter, is represented
by H; and the distortion data are designated by d.
[0026] On the other hand, in the aforementioned conventional LD-CELP coding method, when
calculating the LPC coefficients of the synthesis filter 3, a backward prediction
method in which linear prediction analysis is performed only for the previously processed
synthetic speech vector, is used. Thus, when compared with the forward prediction
methods used in the aforementioned CELP and VSELP coding methods, the prediction error
is large. As a result, at a coding speed of approximately 8 kb/s, sudden increases
in the waveform distortion occur, which in turn create the decoded speech of inferior
quality.
[0027] In the aforementioned conventional high efficiency coding methods, a plurality of
samples of each type of parameter from information relating to spectral envelopes,
power and the like are gathered as one frame in one vector, coded in each frame, and
then transmitted. In addition, in the aforementioned conventional high efficiency
coding methods, in order to increase the information compression efficiency, methods
for increasing the frame update period, and for quantizing the differences between
the current frame and the previous frame, as well as, the predicted values are known.
[0028] However, when the frame update period is 40 ms or greater, a problem arises in that
the coding distortion increases due to the inability of the system to track changes
in the spectral characteristics of the speech waveform, as well as, fluctuations in
the power. In addition, when the parameters are destroyed by coding errors, distortions
are created over long intervals in the encoded speech.
[0029] On the other hand, when the differences between parameters of the present and past
frames, as well as the predicted values are quantized, even in the case of short frame
update periods, using a time continuity of the parameters, and information compression
becomes possible. However, a disadvantage exists in that the effects of the past coding
errors continue to propagate over long periods of time.
[0030] Furthermore, in the aforementioned speech coders shown in Figs. 15 and 16, after
the LPC coefficients determined in the LPC analyzing portion 2 are converted into
the LSP parameters, quantization is performed in the LSP coefficient quantizing portion
4, and the quantized LSP parameters are then converted back into the LPC coefficients.
When quantizing these LSP parameters, a vector quantization method is effective in
quantizing one bit or less per sample. In this vector quantization method, as shown
in Fig. 18, in distortion calculating portion 19, the LSP codevector possessing the
least distortion with the LSP parameter vector, to be formed from a plurality of samples
of the LSP parameters, is selected from the codebook 20, and its code is transmitted.
In this manner, by forming the codebook 20 to conform to the quantization, it is possible
to quantize the LSP parameters with small distortion.
[0031] However, since both the storage capacity of the codebook 20 and the computational
complexity in calculation of the distortion, increase according to the exponential
function of the number of quantization bits, it is difficult to achieve quantization
of a large number of bits. In this regard, a multistage vector quantization method
presents one way in which this problem can be solved. Namely, the codebook 20 is formed
from a plurality of codebooks, and in the coding portion in the LSP coefficient quantizing
portion 4, the quantization error occurring in the vector quantization of a certain
step is used as the input vector in the vector quantization of the next step. In the
decoding portion in the LSP coefficient quantizing portion 4, the output vector is
then formed by adding a plurality of the LSP codevectors selected from the plurality
of the codebooks. In this manner, the vector quantization becomes possible while restricting
the storage capacity and computational complexity to realistic ranges. However, in
this multistage vector quantization method, a distortion of significant proportion
is observed when compared with the ideal onestage vector quantization method.
[0032] The reason for the large distortion in this multistage vector quantization method
will be explained in the following with reference to Figs. 19 through 22. Firstly,
in order to stably excite the synthesis filter 3 in which the LSP parameter vector
is set, the values of the LSP parameters ω
1through ω
p forming the LSP parameter vector of dimension p must satisfy the relation given by
a formula (2) below.

[0033] Fig. 19 shows a case in which second order LSP parameters vector, i.e. p=2, are utilized.
The LSP parameters must exist within the stable triangular region Al shown in Fig.
19 according to the formula (2). In addition, in particular, according to the statistical
characteristics of the speech, the expectation of the LSP parameters existing in the
inclined region labeled A2 is high.
[0034] In the following, the flow of the procedures of the LSP coefficients quantizing portion
4 in the case of performing vector quantization of these LSP parameters will be explained
with reference to the flow chart shown in Fig. 20. Furthermore, in order to reduce
the storage capacity of the codebook 20, the LSP coding vector is represented as the
sum of two vectors. The codebook 20 is thus formed from a first codebook #1 and a
second codebook #2. In the coding portion, in step SA1, a 3-bit first codebook #1
similar to the input vector is formed. In this manner, a reconstructed vector V1 shown
in Fig. 21, can be obtained. Subsequently, second vector quantization of the quantization
error which occurred during quantization in step SA1 is performed. Namely, in step
SA2 shown in Fig. 20, the group of the reconstructed vectors V2 existing within the
circular region shown in Fig. 22 (i.e. the contents of the second codebook #2) is
centrally combined with the reconstructed vector V1, selected through the first vector
quantization, thereby forming an output point. As seen from Fig. 22, when two output
vectors of codebook #1 and codebook #2 respectively are added, an output point may
be formed in a region which did not originally exist. Consequently, in step SA3, a
judgment whether the added vector is stable or unstable is made, with unstable vectors
being excluded from the process. In step SA4, the distortion of the input vector and
the aforementioned reconstructed vector is calculated. Subsequently, in step SA5,
a vector is determined which will minimize the aforementioned distortion, and its
code is transmitted to the decoding portion in the LSP coefficients quantizing portion
4.
[0035] In this manner, in the decoding portion, in step SA6, the codebook #1 is used to
determine a first output vector, and in step SA7, a second output vector contained
in the codebook #2, is added to this aforementioned first output vector, thereby yielding
the final output vector.
[0036] Consequently, in the conventional coding processes, as mentioned above there exist
problems in that no alternatives exist besides excluding the unstable vector, which
leads to wasteful use of information.
Summary of the Invention
[0038] The invention is defined by the appended claims.
[0039] In consideration of the above, it is a first object of the present invention to provide
a speech coding method and an apparatus for the same, wherein even in the case where
transmission errors occur in the transmission line, high quality speech coding and
decoding is possible at a slow coding speed, without being significantly affected
by the aforementioned errors. Additionally, it is a second object of the present invention
to provide a parameter coding method and an apparatus for the same which, when encoding
various types of parameters such as those of spectral envelope information, power
information and the like at a slow coding speed, prevents the transmission of coding
errors, maintains a comparatively short frame update period, and is able to reduce
the quantization distortion by utilizing the time continuity of parameters. Furthermore,
it is a third object of the present invention to provide a multistage vector quantization
method and an apparatus for the same which is able to suppress rising of the quantization
distortion, while keeping the storage capacity of the codebook small.
[0040] To satisfy the first object, the present invention provides a speech coding method
for coding speech data comprising a plurality of samples as a unit of a frame operation
wherein: the plurality of samples of speech data are analyzed by a linear prediction
analysis and thereby prediction coefficients are calculated, and quantized; the quantized
prediction coefficients are set in a synthesis filter; the synthesized speech vector
is synthesized by exciting the synthesis filter with a pitch period vector which is
selected from an adaptive codebook in which a plurality of pitch period vectors are
stored, and which is multiplied by a first gain, and with a noise waveform vector
which is selected from a random codebook in which a plurality of the noise waveform
vectors are stored, and which is multiplied by a second gain; and wherein said method
comprises choosing said first and second gain at the same time; providing a multiplier
of multiplying the selected noise waveform vector by a predicted gain; and predicting
said predicted gain which is to be multiplied by the noise waveform vector selected
in a subsequent frame operation, and is based on the current noise waveform vector
which is multiplied by said predicted gain and said second gain in the current frame
operation, and on the previous noise waveform vector which is multiplied by said predicted
gain and said second gain in the previous frame operation.
[0041] Furthermore, the present invention provides a speech coding apparatus for coding
speech data comprising a plurality of samples as a unit of a frame operation wherein:
the plurality of samples of speech data are analyzed by a linear prediction analysis
and thereby prediction coefficients are calculated and quantized; the quantized prediction
coefficients are set in a synthesis filter; the synthetic speech vector is synthesized
by exciting the synthesis filter with a pitch period vector which is selected from
an adaptive codebook in which a plurality of pitch period vectors are stored, and
which is multiplied by a first gain, and with a noise waveform vector which is selected
from a random codebook in which a plurality of the noise waveform vectors are stored,
and which is multiplied by a second gain; and wherein said apparatus comprises a gain
predicting portion for multiplying said selected noise waveform vector by a predicted
gain; a gain portion for multiplying said selected pitch period vector and an output
vector derived from said gain predicting portion using said first and second gain,
respectively, a distortion calculator for respectively selecting said pitch period
vector and said noise waveform vector and setting, at the same time, said first and
second gain so that a quantization distortion between an input speech vector comprising
a plurality of samples of speech data and said synthetic speech vector is minimized;
and a gain adaptor for predicting said predicted gain which is to be multiplied by
the noise waveform vector selected in the subsequent frame operation, and is based
on the current noise waveform vector which is multiplied by said predicted gain and
said second gain at the current frame operation, and on the previous noise waveform
vector which is multiplied by said predicted gain and said second gain in the previous
frame operation.
[0042] In accordance with this method and apparatus for the same, even in the case where
transmission errors occur in the transmission line, high quality speech coding and
decoding is possible at a slow coding speed without being significantly affected by
the aforementioned errors.
[0043] To satisfy the second object, the present invention provides a parameter coding method
of speech for quantizing parameters such as spectral envelope information and power
information at a unit of a frame operation comprising a plurality of samples of speech
data, wherein said method comprises the steps of, in a coding portion, (a) wherein
said parameter is quantized, representing the resultant quantized parameter vector
by the weighted mean of a prospective parameter vector selected from a parameter codebook
in which a plurality of the prospective parameter vectors are stored in the current
frame operation and a part of the prospective parameter vector selected from said
parameter codebook in the previous frame operation, (b) selecting said prospective
parameter vector from said parameter codebook so that a quantization distortion between
said quantized parameter vector and an input parameter vector, is minimized, and (c)
transmitting a vector code corresponding to the selected prospective parameter vector;
and in a decoding portion, (a) calculating the weighted mean of the prospective parameter
vector selected from said parameter codebook in the current frame operation corresponding
to the transmitted vector code and the prospective parameter vector in the previous
frame operation, and (b) outputting the resultant vector.
[0044] Moreover, the present invention provides a parameter coding apparatus of speech for
quantizing parameters such as spectral envelope information and power information
as a unit of a frame operation comprising a plurality of samples of speech data, wherein
said apparatus comprises a coding portion comprising, (a) a parameter codebook for
storing a plurality of prediction parameter vectors, and (b) a vector quantization
portion for calculating the weighted mean of the prospective parameter vector selected
from said parameter codebook in the current frame operation, the part of the prospective
parameter vector selected from said parameter codebook in the previous frame operation,
using the resultant vector as the resultant quantized parameter vector of the quantization
of prediction coefficients, selecting said prospective parameter vector from said
parameter codebook so that a quantization distortion between said quantized parameter
vector and an input parameter vector is minimized, and transmitting a vector code
corresponding to the selected prospective parameter vector; and a decoding portion
for calculating the weighted mean of the prospective parameter vector selected from
said parameter codebook in the current frame operation corresponding to the transmitted
vector code and the prospective parameter vector in the previous frame operation,
and outputting the resultant vector.
[0045] In accordance with this method and apparatus for the same, the coding portion represents
the resultant quantized parameter vector by the weighted mean of the prospective parameter
vector selected from the parameter codebook in the current frame operation and the
part of the prospective parameter vector selected from the parameter codebook in the
previous frame operation. Then the coding portion selects the prospective parameter
vector from the parameter codebook so that the quantization distortion between the
quantized parameter vector and the input parameter vector is minimized. Furthermore,
the coding portion transmits the vector code corresponding to the selected prospective
parameter vector. Moreover the decoding portion calculates the weighted mean of the
prospective parameter vector selected from the parameter codebook in the current frame
operation corresponding to the transmitted vector code, and the prospective parameter
vector in the previous frame operation, and outputs the resultant vector.
[0046] According to the present invention, since only the code corresponding to one parameter
codebook is transmitted to each frame, even if the frame length is shortened, the
amount of transmitted information remains small. Additionally, the quantization distortion
may be reduced when the continuity with the previous frame is high. As well, even
in the case where the coding errors occur, since the prospective parameter vector
in the current frame operation is equalized with one in the previous frame operation,
the effect of the coding errors is small. Moreover, the effect of coding errors in
the current frame operation can only extend up to two frames operation fore. If coding
errors can be detected using a redundant code, the parameter with errors is excluded,
and by calculating the mean described above, the effect of errors can also be reduced.
[0047] To satisfy the third object, the present invention provides a multistage vector quantizing
method for selecting the prospective parameter vector from a parameter codebook so
that the quantization distortion between the prospective parameter vector and an input
parameter vector becomes minimized, a vector code corresponding to the selected prospective
parameter vector is transmitted, and wherein said method comprises the steps of, in
a coding portion, (a) representing said prospective parameter vector by the sum of
subparameter vectors respectively selected from stages of the subparameter codebooks,
(b) respectively selecting subparameter vectors from stages of said subparameter codebooks,
(c) adding subparameter vectors selected to obtain the prospective parameter vector
in the current frame operation, (d) judging whether or not said prospective parameter
vector in the current frame operation is stable, (e) converting said prospective parameter
vector into a new prospective parameter vector so that said prospective parameter
vector in the current frame operation becomes stable using the fixed rule in the case
where said prospective parameter vector in the current frame operation is not stable,
(f) selecting the prospective parameter vector from said parameter codebook so that
said quantization distortion is minimized, and (g) transmitting a vector code corresponding
to the selected prospective parameter vector; and in said decoding portion, (a) respectively
selecting subparameter vectors corresponding to the transmitted vector code from stages
of said subparameter codebooks, (b) adding the selected subparameter vectors to obtain
the prospective parameter vector in the current frame operation, (c) judging whether
or not said prospective parameter vector in the current frame operation is stable,
(d) converting said prospective parameter vector into a new prospective parameter
vector so that said prospective parameter vector in the current frame operation becomes
stable using the fixed rule in the case where said prospective parameter vector in
the current frame operation is not stable, and (e) using the converted prospective
parameter vector as final prospective parameter vector in the current frame operation.
[0048] Furthermore, the present invention provides a multistage vector quantizing apparatus
for selecting the prospective parameter vector from a parameter codebook so that the
quantization distortion between the prospective parameter vector and an input parameter
vector becomes minimized, and transmitting a vector code corresponding to the selected
prospective parameter vector, wherein said apparatus comprises said parameter codebook
comprising stages of subparameter codebooks in which subparameter vectors are respectively
stored, a coding portion comprising a vector quantization portion for respectively
selecting subparameter vectors from stages of said subparameter codebooks, and adding
the selected subparameter vectors to obtain the prospective parameter vector in the
current frame operation, judging whether or not said prospective parameter vector
in the current frame operation is stable, converting said prospective parameter vector
into a new prospective parameter vector so that said prospective parameter vector
in the current frame operation becomes stable using the fixed rule in the case where
said prospective parameter vector in the current frame operation is not stable, selecting
the prospective parameter vector from said parameter codebook so that said quantization
distortion is minimized, and transmitting a vector code corresponding to the selected
prospective parameter vector; and a decoding portion for respectively selecting subparameter
vectors corresponding to the transmitted vector code from stages of said subparameter
codebooks, adding the selected subparameter vectors to obtain the prospective parameter
vector in the current frame operation, judging whether or not said prospective parameter
vector in the current frame operation is stable, converting said prospective parameter
vector into a new prospective parameter vector so that said prospective parameter
vector in the current frame operation becomes stable using the fixed rule in the case
where said prospective parameter vector in the current frame operation is not stable,
and using the converted prospective parameter vector as a final prospective parameter
vector in the current frame operation.
[0049] According to this method and apparatus for the same, from the second stage of the
multistage vector quantization, the output point is examined to determine whether
or not it is the probable output point (determining whether it is stable or unstable).
In the case where an output vector in the region which dose not originally exist is
detected, this vector is converted into a new output vector in the region which always
exist using the fixed rule, and then quantized. In this manner, unselected combinations
of codes are eliminated, and the quantization distortion may be reduced.
[0050] In addition, according to the present invention, unstable, useless output vectors
occurring after the first stage of the multistage vector quantization are converted
using the fixed rule, into effective output vectors which may then be used. As a result,
advantages such as a greater reduction of the quantization distortion from an equivalent
amount of information, as compared with the conventional methods may be obtained.
Brief Explanation of the Drawings
[0051] Fig. 1 (A) is a block diagram showing a part of a construction of a speech coding
apparatus according to a preferred embodiment of the present invention.
[0052] Fig. 1 (B) is a block diagram showing a part of a construction of a speech coding
apparatus according to a preferred embodiment of the present invention.
[0053] Fig. 2 is a block diagram showing a first construction of a vector quantization portion
applied to a parameter coding method according to a preferred embodiment of the present
invention.
[0054] Fig. 3 is a reference diagram for use in explaining a first example of a vector quantization
method applied to a parameter coding method according to a preferred embodiment of
the present invention.
[0055] Fig. 4 is a reference diagram for use in explaining a second example of a vector
quantization method applied to a parameter coding method according to a preferred
embodiment of the present invention.
[0056] Fig. 5 is a block diagram showing a second construction of a vector quantization
portion applied to a parameter coding method according to a preferred embodiment of
the present invention.
[0057] Fig. 6 is a block diagram showing a third construction of a vector quantization portion
applied to a parameter coding method according to a preferred embodiment of the present
invention.
[0058] Fig. 7 shows an example of a construction of the LSP codebook 37.
[0059] Fig. 8 is a flow chart for use in explaining a multistage vector quantization method
according to a preferred embodiment of the present invention.
[0060] Fig. 9 shows the conversion of a reconstructed vector according to the preferred
embodiment shown in Fig. 8.
[0061] Fig. 10 is a block diagram showing a fourth construction of a vector quantization
portion applied to a parameter coding method according to a preferred embodiment of
the present invention.
[0062] Fig. 11 shows an example of a construction of a vector quantization gain searching
portion 65.
[0063] Fig. 12 shows an example of the SN characteristics plotted against the transmission
line error percentage in a speech coding apparatus according to the conventional art,
and one according to a preferred embodiment of the present invention.
[0064] Fig. 13 shows an example of a construction of a vector quantization codebook 31.
[0065] Fig. 14 shows an example of opinion values of decoded speech plotted against various
evaluation conditions in a speech coding apparatus according to a preferred embodiment
of the present invention.
[0066] Fig. 15 is a block diagram showing a constructional example of a speech coding apparatus
utilizing a conventional CELP coding method.
[0067] Fig. 16 is a block diagram showing a constructional example of a speech coding apparatus
utilizing the a conventional VSELP coding method.
[0068] Fig. 17 is a block diagram showing a constructional example of a speech coding apparatus
utilizing a conventional LD-CELP coding method.
[0069] Fig. 18 is a block diagram showing a constructional example of a conventional vector
quantization portion.
[0070] Fig. 19 shows the existence region of a two-dimensional LSP parameter according to
a conventional multistage vector quantization method.
[0071] Fig. 20 is a flow chart for use in explaining a conventional multistage vector quantization
method.
[0072] Fig. 21 shows a reconstructed vector of a first stage, in the case where vector quantization
of the LSP parameters shown in Fig. 19 is performed.
[0073] Fig. 22 shows a vector to which a reconstructed vector of a second stage has been
added, in the case where vector quantization of the LSP parameters shown in Fig. 19
is performed.
Detailed Description of the Preferred Embodiments
[0074] In the following, a detailed description of the preferred embodiments will be given
with reference to the figures. Figs. 1 (A) and (B) are block diagrams showing a construction
of a speech coding apparatus according to a preferred embodiment of the present invention.
An outline of a speech coding method will now be explained with reference to Figs.
1 (A) and 1 (B). The input speech data formed by sampling the analog speech signal
at a sampling frequency of 8 kHz is inputted from an input terminal 21. Eighty samples
are then obtained as one frame in one vector and stored in a buffer 22 as an input
speech vector. The frame is then further divided into two subframes, each comprising
a unit of forty samples. All processes following this will be conducted in frame units
or subframe units.
[0075] In a soft limiting portion 23, the magnitude of the input speech vector outputted
from the buffer 22 is checked using a frame unit, and in the case where the absolute
value of the magnitude of the input speech vector is greater than a previously set
threshold value, compression is performed. Subsequently, in an LPC analyzing portion
24, linear prediction analysis is performed and the LPC coefficients are calculated
for the input speech data of the plurality of samples outputted from the soft limiting
portion 23. Following this, in an LSP coefficient quantizing portion 25, the LPC coefficients
are quantized, and then set into a synthesis filter 26.
[0076] A pitch period vector and a noise waveform vector selected by a distortion power
calculating portion 35 are outputted from an adaptive codebook searching portion 27
and a random codebook searching portion 28, respectively, and the noise waveform vector
is then multiplied by the predicted gain set by to a gain adapting portion 29 in a
predicted gain portion 30.
[0077] In the gain adapting portion 29, linear prediction analysis is performed based on
the power of the output vector from a vector quantization gain codebook 31 in the
current frame operation, and the stored power of the output vector of the random codebook
component of the vector quantization gain codebook 31 which was used in the previous
frame operation. The power (namely the predicted gain) to be multiplied by the noise
waveform vector selected in the subsequent frame operation is then calculated, determined
and set into the predicted gain portion 30.
[0078] Subsequently, the selected pitch period vector and the output vector of the predicted
gain portion 30 is determined in the distortion power calculating portion 35, multiplied,
in subgain codebooks 31a and 31b of the vector quantization gain codebook 31, by the
gains selected from these subgain codebooks 31a and 31b, and then outputted. In this
manner, the output vectors of the subgain codebooks 31a and 31b are summed in an adder
32, and the resultant output vector of the adder 32 is supplied as an excitation vector
to the synthesis filter 26. The synthetic speech vector is then synthesized in the
synthesis filter 26.
[0079] Next, in a subtracter 33, the synthetic speech vector is subtracted from the input
speech vector, and the distortion data is calculated. After this distortion data is
weighted in a perceptual weighting filter 34 according to the coefficients corresponding
to human perceptual characteristics, the power of the distortion data outputted from
the perceptual weighting filter 34 is calculated in the distortion power calculating
portion 35. Following this, the pitch period vector and noise waveform vector, which
will minimize the aforementioned power of the distortion data, are selected respectively
from the adaptive codebook searching portion 27 and the noise codebook searching portion
28, and the gains of the subgain codebooks 31a and 31b are then designated. In this
manner, in a code outputting portion 36, the respective codes and gains selected according
to the LPC coefficients, the pitch period vector and the noise waveform vector are
then converted into codes of bit series, and when necessary, error correction codes
are added and then transmitted. In addition, the local decoding portion LDEC, in order
to prepare for the process of the subsequent frame in the coding apparatus of the
present invention, uses the same data as that outputted and transmitted from each
structural component shown in Fig. 1 to the decoding apparatus, and synthesizes a
speech decoding vector.
[0080] In the following, the operations of the LSP coefficient quantizing portion 25 will
be explained in greater detail. In the LPC coefficients quantizing portion 25, the
LPC coefficients obtained in the LPC analyzing portion 24 are first converted to LSP
parameters, quantized, and these quantized LSP parameters are then converted back
into the LPC coefficients. The LPC coefficients obtained by means of this series of
processes, are thus quantized; LPC coefficients may be converted into LSP parameters
using, for example, the Newton-Raphson method. Since a short frame length of 10 ms
and a high correlation between each frame, by utilizing these nature, a quantization
of the LSP parameters is performed using a vector quantization method. In the present
invention, the LSP parameters are represented by a weighted mean vector calculated
from a plurality of vectors of past and current frames. In the conventional differential
coding and prediction coding methods, the output vectors in the past frame operation
are used without variation; however, in the present invention, among the vectors formed
through calculation of the weighted mean, only vectors updated in the immediately
preceding frame operation are used. Furthermore, in the present invention, among the
vectors formed through calculation of the weighted mean, only vectors unaffected by
coding errors and vectors in which coding errors have been detected and converted
are used. In addition, the present invention is also characterized in that the ratio
of the weighted mean is either selected or controlled.
[0081] Fig. 2 shows a first construction of a vector quantizing portion provided in the
LPC coefficients quantizing portion 25. An LSP codevector V
k-1 (k is the frame number), produced from a LSP codebook 37 in the frame operation immediately
preceding the current frame operation, is multiplied in a multiplier 38 by a multiplication
coefficient (1-g), and then supplied to one input terminal of an adder 39. A mark
g represents a constant which is determined by the ratio of the weighted mean.
[0082] An LSP codevector V
k produced from the LSP codebook 37 in the current frame operation is supplied to each
input terminal of a transfer switch 40. This transfer switch 40 is activated in response
to the distortion calculation result by a distortion calculating portion 41. The selected
LSP codevector V
k is first multiplied by the multiplication coefficient g in a multiplier 42, and then
supplied to the other input terminal of the adder 39. In this manner, the output vectors
of the multipliers 38 and 42 are summed in the adder 39, and the quantized LSP parameter
vector Ω
k of the frame number k is then outputted. Specifically, this LSP parameter vector
Ω
k may be expressed by the following formula (3).

[0083] Subsequently, in the distortion calculating portion 41, the distortion data between
an LSP parameter vector Ψ
k of the frame number k before quantization and the LSP parameter vector Ω
k of the frame number k following quantization, is calculated, and the transfer switch
40 is activated such that this distortion data is minimized. In this manner, the code
for the LSP codevector V
k selected by the distortion calculator 41 is outputted as a code S
1. Furthermore, the LSP codevector V
k produced from the LSP codebook 37 in the current frame operation is employed in the
subsequent frame operation as an LSP codevector V
k-1, which is produced from the LSP codebook 37 in the previous frame operation.
[0084] In the following, an LSP parameter vector quantization method which uses the two
LSP codevectors produced respectively from two LSP codebooks in the two frames operation
preceding the current frame operation, will now be explained with reference to Fig.
3. In this method, three types of codebooks 37, 43, and 44 are used corresponding
to the frame number. The quantized LSP parameter vector Ω
k may be calculated using a mean of three vectors in the frames in formula (4) below.

[0085] An LSP codevector V
k-2 represents the LSP codevector produced from the LSP codebook 43 in the two frame
operations prior to the current frame operation, while an LSP codevector V
k-1 represents the LSP codevector produced from the LSP codebook 44 in the frame operation
immediately preceding the current frame operation. As the LSP codevector V
k in the operation of the frame k, an LSP codevector, which will minimize the distortion
data between the LSP parameter vector Ψ
k of the frame number k before quantization and the LSP parameter vector Ω
k of the frame number k (the kth frame) following quantization, is selected from the
LSP codebook 37. The code corresponding to the selected LSP codevector V
k is then outputted as the code S1. The LSP codevector V
k-1 may also be used in the subsequent frame operation, and similarly the LSP codevector
V
k may be used in the next two frame operations. In addition, although the LSP codevector
V
k may be determined at the kth frame operation, if this decision may be delayed, the
quantization distortion can be reduced when this decision is delayed in consideration
of the LSP parameter vectors Ω
k+1 and Ω
k+2, appearing in the subsequent frame and two frame operations later.
[0086] Another example of an LSP parameter vector quantization method which uses the two
LSP coding vectors produced respectively from two LSP codebooks in the two frame operations
preceding the current frame operation, will now be explained with reference to Fig.
4. This vector quantization method is similar to the vector quantization method shown
in Fig. 3, however, the quantized LSP parameter vector Ω
k of the frame number k is expressed using the following formula (5).

[0087] In this case, LSP coding vectors V
k and U
k are determined in the kth frame operation, and their codes are then transmitted.
The LSP codevector U
k is the output vector of an additional LSP codebook.
[0088] Furthermore, in the examples shown in Figs. 3 and 4 above, the codebooks 37, 43,
and 44 are presented separately: however, it is also possible for these codebooks
to be combined into one common codebook as well. Additionally, in the vector quantization
methods shown in Figs. 2 through 4 above, the ideal LSP parameter vector Ψ
k is previously provided, and a method is employed which determines the LSP parameter
vector Ω
k quantized using the mean calculated in the parameter dimensions. However, in regard
to the LSP parameters, there exists a method for determining the LSP parameters of
the current frame by analyzing a plurality of times the distortion data outputted
from an inverse filter, in which the LSP parameters determined in a previous frame
operation is set. In addition, in the parameter mean calculation method, the mean
calculated from the coefficients of the polynomial expressions of the individual synthesis
filters becomes the final synthesis filter coefficients. In the case of the methods
following the multiple analysis, the product of the terms of the individual polynomial
expressions becomes the final synthesis filter polynomial expression.
[0089] In the following, a vector quantization method will be explained in which increases
in the distortion, in particular from coding errors occurring in the transmission
line, can be suppressed. In this vector quantization method, the LSP codevector is
selected so that the distortion data between an expected value Ω*
k in the local decoding portion LDEC in consideration for a coding error rate, in stead
of the output vector, the LSP parameter vector Ω
k in Fig. 2, and the input vector, the LSP parameter vector Ψ
k are minimized. This expected value Ω*
k may be estimated using formula (6) below.

[0090] In the formula (6), ε represents the coding error rate in the transmission line (a
1bit error rate), and m represents the transmission bit number per a vector). In addition,
in the formula (6), Ω
e represents m types of vectors which are outputted in the case where an error occurs
in only one bit of m pieces of the transmission line codes corresponding to the LSP
parameter vector Ω
k, and a second term of the righthand side of the equation represents the sum of these
m types of vectors Ω
e.
[0091] In Fig. 5, a second construction of a vector quantization portion provided in the
LPC coefficients quantizing portion 25 is shown. In this Fig. 5, components which
correspond to those shown in Fig. 2, will retain the original identifying numeral,
and their description will not herein be repeated. In this vector quantization portion,
a constant g determined from the ratio of the weighted mean is not fixed, rather a
ratio constant g
k is designated according to each LSP code V
k stored in the LSP codebook 37. In Fig. 5, each LSP codevector V
k outputted from the LSP codebook 37 is multiplied by the appropriate multiplication
coefficient g
1, g
2, ..., g
n-1, g
n in multipliers 45
1, 45
2, ..., 45
n-1, 45
n, into which each individual ratio constant g
k (k=0, 1, ..., n) has been set, and then supplied to each input terminal of the transfer
switch 46.
[0092] The distortion calculating portion 41 is constructed in a manner such that the LSP
codevector V
k, which will minimize the distortion data between the quantized LSP parameter vector
Ω
k outputted from the adder 39 and the LSP parameter vector Ψ
k before quantization, are selected by transferring the transfer switch 46, and the
corresponding multiplication coefficient g
k are selected. In addition, the aforementioned construction is designed such that
the ratio (1-g
k) supplied to the multiplier 47 is interlocked and changed by means of the transfer
switch 46.
[0093] In this manner, the quantized LSP parameter vector Ω
k may be expressed using the following formula (7).

[0094] In formula (7), the multiplication coefficient g
k is a scalar value corresponding to the LSP codevector V
k; however, it is also possible to assemble a plurality of the LSP codevectors as one
group, and have this scalar value correspond to each of these types of groups. In
addition, it is also possible to proceed in the opposite manner by setting the multiplication
coefficient at each component of the LSP codevector. In either case, the LSP codevector
V
k-1 produced from the LSP codebook 37 in the previous frame operation is given, and in
order to minimize the distortion data between the quantized LSP parameter vector Ω
k and the LSP parameter vector Ψ
k before quantization, the most suitable combination of the ratio g
k which is the ratio of the weighted mean between the LSP codevector V
k produced from the LSP codebook 37 in the current frame operation and the LSP codevector
V
k-1 produced from the LSP codebook 44 in the previous frame operation, and the LSP codevector
V
k, is selected.
[0095] Fig. 6 shows a third construction of a vector quantization portion provided in the
LSP coefficient quantizing portion 25. In this Fig. 6, components which correspond
to those shown in Fig. 2, will retain the original identifying numeral, and their
description will not herein be repeated. The vector quantization portion shown in
Fig. 6 is characterized in that the ratio value of a plurality of different types
of weighted means is set independently from the LSP codevectors. The LSP codevector
V
k-1 produced from the LSP codebook 37 in the frame operation immediately prior to the
current frame operation, is multiplied, in multipliers 47 and 48, by the multiplication
coefficients (1-g
1) and (1-g
2) respectively, and then supplied to the input terminals T
a and T
b of a transfer switch 49. The transfer switch 49 is activated in response to the distortion
calculation resulting by the distortion calculating portion 41, and the output vector
from either multiplier 47 or 48 is selected, and supplied to one input terminal of
the adder 39 via a common terminal T
c. On the other hand, an LSP codevector V
k produced from the LSP codebook 37 in the current frame operation, is supplied to
each input terminal of the transfer switch 40. The transfer switch 40 is activated
in the same manner as the transfer switch 49, in response to the distortion calculation
result by the distortion calculator 41. In this manner, the selected LSP codevector
V
k is multiplied, in multipliers 50 and 51, by multiplication coefficients g
1 and g
2 respectively, and then supplied to input terminals T
a and T
b of a transfer switch 52. The transfer switch 52 is activated in the same manner as
the transfer switches 40 and 49, in response to the distortion calculation result
by the distortion calculator 41, and the output vector from either multiplier 50 or
51 is selected, and supplied to one input terminal of the adder via the common terminal
T
c.
[0096] In this manner, the output vectors of the transfer switches 49 and 52 are summed
in the adder 39, and the quantized LSP parameter vector Ω
k of the frame number k is then outputted. Specifically, this LSP parameter vector
Ω
k may be expressed by the following formula (8). In the formula (8), m is 1 or 2.

[0097] Subsequently, the distortion data between the LSP parameter vector Ψ
k of the frame number k before quantization and the LSP parameter vector Ω
k of the frame number k after quantization are calculated in the distortion calculating
portion 41, and the transfer switches 49 and 52 are activated in a manner such that
this distortion data is minimized. As a result, as the code S1, the code of the selected
LSP codevector V
k, and the selection information S2, indicating which the output vectors from each
of the multipliers 47 and 48, and 50 and 51 will be used, are outputted from the distortion
calculating portion 41.
[0098] Furthermore, in order to reduce the storage capacity of the LSP codebook 37, the
LSP codevector V
k is expressed as the sum of two vectors. For example, as shown in Fig. 7, the LSP
codebook 37 is formed from a first stage LSP codebook 37a, in which 10 vectors E
1 have been stored, and a second stage LSP codebook 37bl, which comprises two separate
LSP codebooks each storing five vectors, a second stage low order LSP codebook 37b1
and a second stage high order LSP codebook 37b2. The LSP codevector V
k may be expressed using the following formulae (9) and (10).
[0099] When f<5,

[0100] When f≧5,

[0101] In the formulae (9) and (10), an E
1n is an output vector of the first stage LSP codebook 25a, and n is 1 through 128.
In other words, 128 output vectors E
1 are stored in the first stage LSP codebook 25a. In addition, an E
L2f is an output vector of the second stage low order LSP codebook 37b1 and an E
H2f is an output vector of the second stage high order LSP codebook 37b2.
[0102] The vector quantization method (not shown in the Figs.) used in this vector quantization
portion reduces the effects of coding errors in the case where these errors are detected
in the decoding portion. Similar to the vector quantization portion shown in Fig.
2, this method calculates, in the coding portion, the LSP vector V
k which will minimize the distortion data. However, in the case where coding errors
are detected or highly probable in either LSP codevector V
k-1 in the previous frame operation in the decoding portion, or LSP codevector V
k in the current frame operation, only in the decoding portion, this method calculates
an output vector by reducing the ratio of the weighted mean of the LSP vectors incorporating
the errors.
[0103] In this variation, for example, in the case where a transmission line error is detected
in the frame operation immediately preceding the current frame operation, information
from the previous frame is completely disregarded, and the quantized LSP parameter
vector Ω
k is expressed by the following formula (11).

[0104] Alternatively, the LSP parameter vector Ω
k may be expressed by formula (12) in order to reduce the effects of the transmission
line errors from the previous frame.

[0105] In the following, the procedures of the vector quantization portion shown in Fig.
6 will be explained with reference to the flow chart shown in Fig. 8. In step SB1,
the distortion calculating portion 41 selects a plurality of the output vectors E
1n similar to the LSP parameter vector Ψ
k from the first stage LSP codebook 37a, by means of appropriately activating the transfer
switch 40. In subsequent step SB2, the distortion calculating portion 41 respectively
adds to each of the selected high and low order output vectors E
1n, the output vectors E
L2f and E
H2f selected respectively from the second stage low order LSP codebook 37b1 and the second
stage high order LSP codebook 37b2 of the second stage codebook 37b, and produces
the LSP codevector V
k. The system then proceeds to step SB3.
[0106] In step SB3, the distortion calculating portion 41 judges whether or not the LSP
codevector V
k obtained in step SB2 is stable. This judgment is performed in order to stabilize
and activate the synthesis filter 26 (see Fig. 1) in which the aforementioned LSP
codevector V
k is set. Thus in order to stabilize and activate the synthesis filter 26, the values
of the LSP parameters ω
1 through ω
p forming p number of the LSP codevectors V
k must satisfy the relationship shown in the aforementioned formula (2).
[0107] When an unstable situation exists (see a code P in Fig. 9) because the values of
the LSP parameters ω
1 through ω
p do not satisfy the relationship shown in formula (2), the distortion calculating
portion 41 converts the output vector P into a new output vector P1, which is symmetrical
in relation to the broken line L1 shown in Fig. 9 in order to achieve a stable situation.
[0108] Subsequently, the LSP codevector V
k, which is either stable or has been converted so as to stabilize, is multiplied respectively,
in the multipliers 50 and 51, by the multiplication coefficients g
1 and g
2. The output vector of either multiplier 50 or 51 is then supplied to the other input
terminal of the adder 39 via the transfer switch 52. On the other hand, the LSP codevector
V
k-1 produced from the LSP codebook 37 in the frame operation immediately prior to the
current frame operation, is multiplied, in the multipliers 47 and 48, by the multiplication
coefficients (1-g
1) and (1-g
2) respectively, and the output vector of either multiplier 47 or 48 is then supplied
to one input terminal of the adder 39 via the transfer switch 49. In this manner,
in the adder 39, the weighted mean of the output vectors of the transfer switches
49 and 52 are calculated, and the LSP parameter vector Ω
k is outputted.
[0109] In step SB4, the distortion calculator 41 calculates the distortion data between
the LSP parameter vector Ψ
k and the LSP parameter vector Ω
k, and the process moves to step SB5. In step SB5, the distortion calculating portion
41 judge whether or not the distortion data calculated in step SB4 is at a minimum.
In the case where this judgment is "NO", the distortion calculating portion 41 activates
either transfer switch 49 or 51, returning the process to step SB2. The aforementioned
steps SB2 to SB5 are then repeated in regard to the plurality of output vectors E
1n selected in step SB1. When the distortion data calculated in step SB4 reaches a minimum,
the judgment in step SB5 becomes "YES", and, as a result, the distortion calculating
portion 41 determines the LSP codevector V
k, outputs this code as the code S
1, outputs the selection information S
2, and transmits them respectively to the decoding portion in the vector quantization
portion. The decoding portion comprises the LSP codebook 37 and the transfer switches
40, 49 and 52 shown in Fig. 6.
[0110] Proceeding to step SB6, the decoding portion activates the transfer switch 40 based
on the transmitted code S
1, and selects the output vector E
1n from the first stage codebook 37a. The process then moves to step SB7. In step SB7,
the decoding portion activates the transfer switch 40 based on the transmitted selection
information S
2 to respectively select the output vectors E
L2f and E
H2f from the second stage low order LSP codebook 37b1 and the second stage high order
LSP codebook 37b2 of the second stage codebook 37b, adds them to respectively the
high and low order of the selected output vectors E
1n, and thereby produces the LSP codevector V
k. The system then proceeds to step SB8. In step SB8, the decoding portion judges whether
or not the LSP codevector V
k obtained in step SB7 is stable. When the decoding portion judges that the LSP codevector
V
k is unstable, as in step SB3 above, it converts the output vector P into a new output
vector P1, which is symmetrical in relation to the broken line L1 shown in Fig. 9
in order to achieve a stable situation. In this manner, the LSP codevector V
k, which is either stable or has been converted so as to stabilize, may be used in
the subsequent frame operation as the LSP codevector V
k-1.
[0111] The multistage vector quantization method shown above in Fig. 6 is characterized
in that when the output vectors E
L2f and E
H2f selected respectively from the second stage low order LSP codebook 37b1 and the second
stage high order LSP codebook 37b2 of the second stage codebook 37b, are summed, in
the case where an unstable output vector is present, the output position is shifted,
and the output vector P is converted into the output vector P1, which is symmetrical
in relation to the broken line L1 shown in Fig. 9. In Fig. 22, the diagonal line represents
the set of values at which the LSP parameters ω
1and ω
2 are equal. Thus, changing the output position to one that is symmetrical around broken
line L1, which lies parallel to the aforementioned diagonal line, changes the order
of the LSP parameter ω, and broadens the interval of adjacent LSP parameters.
[0112] In addition, in the aforementioned multistage vector quantization method, it is important
to perform necessary conversions before calculating the distortion data, and to carry
out these conversions in the exact same order in both the coding and decoding portions.
As well, when learning the LSP codebook 37, it is also necessary to perform calculations
for the distance and center of gravity taking into account the above conversions.
[0113] Furthermore, in the aforementioned multistage vector quantization method, a two-stage
example of the LSP codebook 37 is given, however, it also possible to apply a three-stage
LSP codebook 37 in which the stable/unstable judgment is performed in the final stage.
In addition, it is possible to perform the judgment in every stage following the first
stage as well. The first stage is always stable, thus it is unnecessary to perform
the above stable/unstable judgment in this stage.
[0114] Fig. 10 shows a fourth construction of a vector quantization portion provided in
the LSP coefficient quantizing portion 25. In this Fig. 10, components which correspond
to those shown in Fig. 6, will retain the original identifying numeral, and their
description will not herein be repeated. Adders 53 to 55, multipliers 56 to 61 and
transfer switches 62 to 64 comprise the same functions as the adder 39, the multiplier
47 and the transfer switch 49, respectively. The vector quantization portion shown
in Fig. 10, calculates the LSP parameter vector Ω
k, expressed in formula (13), using the weighted means of a plurality of the past LSP
codevectors V
k-4 to V
k-1 and the current LSP codevector V
k.

[0115] In the formula (13), g
4m to g
m are the constants of the weighted means, and m is 1 or 2.
[0116] Furthermore, the operations of the vector quantization portion shown in Fig. 10,
are similar to the operations of the vector quantization portion shown in Fig. 6,
thus the corresponding description will be omitted. Additionally, the vector quantization
portion shown in Fig. 10 utilizes the LSP coding vectors extending back four frame
operations prior to the current frame operation, however, use of the LSP codevectors
from the past frames is not in particular limited.
[0117] Next, a vector quantization gain searching portion 65 comprising the gain adapting
portion 29, the predicted gain portion 30, and the vector quantization gain codebook
31, shown in Fig. 1, will be described. Fig. 11 shows a detailed block diagram of
the vector quantization gain searching portion 65. In the gain adapting portion 29,
the linear prediction analysis is carried out for the power of the output vector from
the vector quantization gain codebook 31 at the present operation, and for the power
of the output vector of random codebook component from the vector quantization gain
codebook 31, which is used in the past operation and is stored in the vector quantization
gain codebook 31. Then, in the gain adapting portion 29, the predicted gain by which
the noise waveform vector which will be selected at a next frame operation, will multiply,
is calculated and decided, and the decided predicted gain is set in the gain adapting
portion 30.
[0118] In the vector quantization gain codebook 31 is divided into subgain codebooks 31a
and 31b to increase the quantization efficiency by the vector quantization and to
decrease the effect on the decoded speech in the case where the error of the gain
code is occurred in a transmission line. The pitch period outputted from the adaptive
codebook searching portion 27, is supplied to the subgain codebooks 31a and 31b in
block of one-half, respectively, and the half of the output vector from the predicted
gain portion 30 is supplied to the subgain codebooks 31a and 31b in block of one-half,
respectively. The gain multiplied by each of the vectors is selected as a block by
the distortion power calculating portion 35 shown in Fig. 1 so that the distortion
data that is the difference between an input speech vector and a synthesized speech
vector, is minimized as a whole. By dividing the vector quantization gain codebook
31 as described above, even if the error of either of the gain codes occurs in the
transmission line, it is possible to supplement the error of one gain code with the
other gain code. Accordingly, it is possible to decrease the effect of the error in
the transmission line. Fig. 12 shows an example of signal-to-noise ratio (SNR) characteristics
for the transmission error rate in the case of representing the gain by which the
pitch period vector and the noise waveform vector is multiplied, respectively, by
the output vector from the conventional gain codebook, and the case of representing
one by the sum of the output vectors from two subgain codebooks. In Fig. 12, a curve
a shows the SNR characteristics according to the conventional gain codebook, and a
curve b shows one according to the subgain codebooks of this embodiment of the present
invention. As shown in Fig. 12, it is obvious that the technique of the representation
of the gain by the sum of output vectors from two subcodebooks has a grater tolerance
of transmission errors.
[0119] As a countermeasure in case of the occurrence of the transmission error of the gain
code in the transmission line, the vector quantization gain codebook 31 is composed
of the subgain codebooks 31a and 31b serially connected as shown in Fig. 13. The gain
by which the pitch period vector is multiplied is selected from {g
p0, g
p1, ... ,g
pM}. On the other hand, the gain by which the output vector of the predicted gain portion
30 is multiplied is selected from {g
c0, g
c1, ..., g
cM}. By the construction of the subgain codebooks 31a and 31b as described above, even
if there is a transmission error of the gain code of the output vector from the predicted
gain portion 30 in the transmission line, the gain code of the pitch period vector
is not at all affected by the transmission error of the gain code of the output vector
from the predicted gain portion 30. In contrast, in the case where a transmission
error of the gain code of the pitch period vector occurs in the transmission line,
the transmission error of the gain code of the output vector from the predicted gain
portion 30 also occurs. However, by appropriately arranging the gain codes of these
gains, it is possible to decrease the effect of the transmission error of the gain
code in the transmission line.
[0120] Next, a pre-selection carried out in the adaptive codebook searching portion 27 and
the random codebook searching portion 28, will be described. In the adaptive codebook
searching portion 27 and the random codebook searching portion 28, the pitch period
vector and the noise waveform vector are respectively selected from among a plurality
of the pitch period vectors and a plurality of the noise waveform vectors respectively
stored in the adaptive codebook 27 and the random codebook 28 so that the power of
the distortion d' represented by the formula (14), is minimized.

[0121] In the formula (14), X
T represents a target input speech vector used when the optimum vector is searched
in the adaptive codebook searching portion 27 and the random codebook searching portion
28. The target input speech vector X
T is obtained by subtracting a zero input response vector X
Z of the decoded speech vector which is decoded in the previous frame operation and
is perceptually weighted in the perceptual weighting filter 34, from the input speech
vector X
W perceptually weighted in the perceptual weighting filter 34 as shown in formula (15).
The zero input response vector X
Z is the component of the decoded speech vector operated until one frame before the
current frame that affects the current frame, and is obtained by inputting a vector
comprising a zero sequence into the synthesis filter 26.

[0122] Furthermore, in the formula (14), V'
i (i=1, 2, ..., N; N denotes the a codebook size) is the pitch period vector or the
noise waveform vector selected from the adaptive codebook 66 or the random codebook
67, and g' is the gain set in the subgain codebook 31a or 31b of the vector quantization
gain codebook 31 shown in Fig. 1, H is the above-mentioned impulse response coefficient,
and HV'
i is the synthesis speech vector.
[0123] In order to search the optimum pitch period vector or noise waveform vector V
opt for the target input speech vector X
T, as described above, the calculation of the formula (14) must be carried out with
respect to the entirety of the vector V'
i. Accordingly, computational complexity increases enormously. Consequently, it is
necessary to decrease computational complexity in order to carry out the above-mentioned
calculations due to hardware considerations. In particular, since a filtering calculation
of the synthesis speech vector HV'
i comprises most of the calculation, a decrease of the filtering time leads to a decrease
in the overall computational complexity in each of the searching portions.
[0124] Therefore, the pre-selection as described below, is carried out to decrease the filtering
time. Initially, the above-mentioned formula (14) can be expanded to the formula as
shown in formula (16).

[0125] In the second term of the formula (16), in the case where a correlation value between
the target input speech vector X
T and the synthesis speech vector HV'
i is large, the total distortion d' becomes small. Accordingly, the vector V'
i is selected from each of the codebooks based on this correlation value X
TTHV'
i. The distortion d' is not calculated for the entire vector V'
i stored in each of codebooks, but only the correlation value is calculated for the
entire vector V'
i and the distortion d' is calculated for only the vector V'
i having the large correlation value X
TTHV'
i.
[0126] In the calculation of the correlation value X
TTHV'
i, generally, after the synthesis speech vector HV' is calculated, the correlation
calculation between the target input speech vector X
T and the synthesis speech vector HV' is carried out. However, in the calculating method
as described above, the N times of the filtering calculation and the N times of preforming
the correlation calculation are necessary for the calculation of the synthesis speech
vector HV' because the number of the vector V'
i is equal to the codebook size N.
[0127] In this embodiment, a backward filtering disclosed in "
Fast CELP Coding based on algebraic codes", Proc. ICASSP'87, pp. 1957-1960, J.P. Adoul, et al., is used. In this backward filtering, in the calculation of the correlation
value X
TTHV'
i, X
TTH is initially calculated and (X
TTH)V' is calculated. By using this calculating method, the correlation value X
TTHV'
i is obtained by filtering one time and performing the correlation calculation N times.
Then, the arbitrary numbers of the vector V'
i having the large correlation value X
TTHV'
i are selected and the filtering of the synthesis speech vector HV'
i may be calculated only for the selected arbitrary number of the vector V'
i. Consequently, it is possible to greatly decrease the computational complexity.
[0128] Next, the speech coding apparatus shown in Fig. 1 will be further explained. The
adaptive codebook searching portion 37 comprises the adaptive codebook 66 and the
pre-selecting portion 68. In the adaptive codebook searching portion 37, the past
waveform vector (pitch period vector) which is most suitable for the waveform of the
current frame, is searched as a unit of a subframe. Each of the pitch period vectors
stored in the adaptive codebook 66, is obtained by passing the decoded speech vector
through a reverse filter. The coefficient of the reverse filter is the quantized coefficient,
and the output vector from the reverse filter is the residual waveform vector of the
decoded speech vector. In the pre-selecting portion 68, the pre-selection of a prospect
of the pitch period vector (hereafter referred to as a pitch prospect) to be selected
is carried out twice. By performing the pre-selection twice, M pieces (for example,
16 pieces) of the pitch prospects, are finally selected. Next, the optimum pitch prospect
among the pitch prospects selected in the pre-selecting portion 68, is decided as
the pitch period vector to be outputted. When the optimum gain g' is set as shown
a formula (17), the above-mentioned formula (16) can be modified as shown a formula
(18).


[0129] Then, what the pitch prospect that the smallest distortion d' can be obtained is
searched is equal to what the pitch prospect that the second term of the formula (18)
is maximized is searched. Accordingly, the second term of the formula (18) is respectively
calculated for the M pieces of the pitch prospect selected in the pre-selecting portion
68, and the pitch prospect which the calculating result is maximized, is decided as
the pitch period vector HP to be outputted.
[0130] The random codebook searching portion 28 comprises a random codebook 67, and pre-selecting
portions 69 and 70. In the random codebook searching portion 28, a waveform vector
(a noise waveform vector) which is most suitable for the waveform of the current frame,
is searched for among a plurality of the noise waveform vectors stored in the random
codebook 67 as a unit of a subframe. The random codebook 67 comprises subcodebooks
67a and 67b. In the subcodebooks 67a and 67b, a plurality of excitation vectors are
stored, respectively. The noise waveform vector C
d is represented by the sum of two excitation vectors as shown in formula (19).

[0131] In the formula (19), C
sub1p and C
sub2q are the excitation vectors stored in the subcodebooks 67a and 67b, respectively,
and θ
1 and θ
2 are the positive or negative of the excitation vectors C
sub1p and C
sub2q, d=1∼128, p=1∼128, q=1∼128.
[0132] As described above, by representing one noise waveform vector C
d by two excitation vectors C
sub1p and C
sub2q, and by transmitting the codes corresponding to two excitation vectors C
sub1p and C
sub2q as a code of bit series, even if the error of either of these codes occurs in the
transmission line, it is possible to decrease the effect by the error in the transmission
line by using the other code.
[0133] Furthermore, in this embodiment, the excitation vectors C
sub1p and C
sub2q is represented by 7 bits, and the signs θ
1 and θ
2 is represented by 1 bit. If the noise waveform vector C
d is represented by a single vector as in the conventional art, the excitation vectors
C
sub1p and C
sub2q will be represented by 15 bits, and the signs θ
1 and θ
2 will be represented by 1 bit. Accordingly, because a large amount of memory is required
for the random codebook, the codebook size is too large. However, as this embodiment,
since the noise waveform vector C
d is represented by the sum of the two excitation vectors C
sub1p and C
sub2q, the codebook size of the random codebook 67 can be greatly decreased compared with
that of the conventional art. Consequently, it is able to learn and obtain the noise
waveform vectors C
d to be stored in the random codebook 67 by using a speech data base in which a plurality
of actual speech vectors are stored so that the noise waveform vectors C
d match the actual speech vectors.
[0134] In the pre-selecting portions 69 and 70, in order to select the noise waveform vector
C
d which is most suitable to the target input speech vector X
T, the excitation vectors C
sub1p and C
sub2q are respectively pre-selected from the subcodebooks 67a and 67b. In other words,
the correlation value between the excitation vectors C
sub1p and C
sub2q and the target input speech vector X
T are respectively calculated and the pre-selection of a prospect of the noise waveform
vector C
d (hereafter referred to as a random prospect) to be selected, is carried out. The
noise waveform vector is searched for by orthogonalizing each of the random prospects
against the searched pitch period vector HP to increase quantization efficiency. The
orthogonalized noise waveform vector [HC
d] against the pitch period vector HP is represented by formula (20).

[0135] Next, the correction value X
TT [HC
d] between this orthogonalized noise waveform vector [HC
d] and the target input speech vector X
TT is represented by formula (21).

[0136] Next, the pre-selection of the random prospect is carried out using the correlation
value X
TT [HC
d] . In the formula (21), the numerator term (HC
d)
THP of the second term is equivalent to (HP)
THC
d. Accordingly, the above-mentioned backward filtering is applied to the first term
X
TTHC
d of the formula (21) and (HP)
THC
d. Since the noise waveform vector C
d is the sum of the excitation vectors C
sub1p and C
sub2q, the correlation value X
TT [HC
d] is represented by formula (22).

[0137] Accordingly, the calculation shown by the formula (22) is carried out respectively
for the excitation vectors C
sub1p and C
sub2q and the M pieces of the calculated correlation values whose value is large among
these are respectively selected. Next, the random prospects comprising the most suitable
combination are respectively chosen as a noise waveform vector to be outputted among
each of the M pieces of the excitation vectors C
sub1p and C
sub2q selected in the pre-selecting portion 69 and 70. In the same way as the above-mentioned
technique of choosing the optimum prospect of the pitch period prospect, the combination
of the excitation vectors C
sub1p and C
sub2q which the second term of the formula (23) representing the distortion d'' calculated
using the target input speech vector X
T and the random prospect, is searched for.

[0138] Since the M pieces of the excitation vectors C
sub1p and C
sub2q are respectively selected from each of the subcodebooks 67a and 67b by using the
above-mentioned pre-selection, the calculation shown by the formula (23) may be carried
out M
2 times on the whole.
[0139] As described above, in this embodiment, the M pieces of the excitation vectors C
sub1p and C
sub2q are respectively pre-selected in the pre-selecting portions 69 and 70 and the optimum
combination is selected among the M pieces of the pre-selected excitation vectors
C
sub1p and C
sub2q, it is possible to further increase tolerance to the transmission error. As mentioned
before, because one noise waveform vector C
d is represented by the two excitation vectors C
sub1p and C
sub2q, even if the error of either of the codes respectively corresponding to the excitation
vectors C
sub1p and C
sub2q occurs in the transmission line, it is possible to compensate for the transmission
error of one code with the other code. In addition, the excitation vectors C
sub1p and C
sub2q having the high correlation with the target input speech vector are pre-selected
by the pre-selection and then the optimum combination of the excitation vectors C
sub1p and C
sub2q is chosen as the noise waveform vector to be outputted, the noise waveform vector
in which the transmission error has not occurred has a high correlation with the target
input speech vector X
TT. Consequently, in comparison with not carrying out the pre-selection, it is possible
to decrease the effects of the transmission errors.
[0140] Fig. 14 shows a result in which the speech quality of the decoded speech was estimated
by an opinion test in the case where the speech data are respectively coded and transmitted
by the speech coding apparatus according to the conventional art and the present invention
and are decoded by the speech decoding apparatus. In Fig. 14, the speech quality of
the decoded speech is depicted when the level of an input speech data in the speech
coding apparatus is respectively set at 3 stages (A: large level, B: medium level,
C: small level) in the case where transmission error has not occurred and the speech
quality (see the mark D) of the decoded speech in the case where a random error ratio
is 0.1 %. In Fig. 14, oblique lined blocks show the result according to the conventional
adaptive differential pulse coding modulation (ADPCM) method, crosshatched blocks
show the result according to this embodiment of the present invention. According to
Fig. 14, it is obvious that the speech quality of the decoded speech which is equal
to one according to the ADPCM method is obtained regardless of the level of the input
speech data in the case where transmission error has not occurred, and the speech
quality of the decoded speech is better than one according to the ADPCM method in
the case where transmission error has occurred. Consequently, the speech coding apparatus
according to this embodiment is robust with respect to transmission errors.
[0141] As described above, according to the above-mentioned embodiment, it is possible to
realize the coding and decoding of speech at 8 kb/s, speech coding with high speech
quality of the decoded speech, which is equal to one of the decoded speech according
to 32 kb/s ADPCM which is an international standard. Furthermore, according to this
embodiment, even if a bit error were to occur in the transmission line, it is possible
to obtain high quality decoded speech without the effect of the bit error.
[0142] The embodiment of the present invention has to this point been explained in detail
with reference to the figures; however, the concrete construction of the present invention
is not limited to this embodiment. The present invention includes modifications and
the like which fall within the present invention as claimed.
1. A speech coding method comprising at least four flows of steps; a first flow comprising:
a first step (22) for forming a vector from speech signals comprising a plurality
of samples as a unit of frame operation, and storing said vector as a speech input
vector;
a second step (23) for sequentially checking, one frame at a time, the amplitude of
each speech input vector, and compressing said amplitude when the absolute value of
said amplitude exceeds a predetermined value;
a third step (24) for conducting linear prediction analysis and calculating an LPC
coefficient for each speech input vector outputted by means of said second step;
a fourth step for converting each LPC coefficient calculated in said third step into
an LSP parameter;
a fifth step for quantizing said LSP parameter by means of using a vector quantizing
process;
a sixth step for converting said quantized LSP parameter into a quantized LPC coefficient;
a seventh step (26) for synthesizing a synthetic speech vector based on a driving
vector supplied from the exterior, and said quantized LPC coefficient;
an eighth step (33) for calculating distortion data by means of subtracting said synthetic
speech vector outputted by means of said seventh step from said speech input vector
outputted by means of said second step;
a ninth step (34) for weighting said distortion data calculated by means of said eighth
step; and
a tenth step (35) for calculating the distortion power of said distortion data with
regard to each distortion data weighted by means of said ninth step;
a second flow comprising:
an eleventh step (27) for selecting one pitch period vector from among a plurality
of pitch period vectors;
a twelfth step (28) for selecting one noise waveform vector from among a plurality
of noise waveform vectors;
a thirteenth step (29) for calculating a prediction gain for each noise waveform vector
selected by means of said twelfth step;
a fourteenth step (30) for multiplying said prediction gain calculated by means of
said thirteenth step by said noise waveform vector selected by means of said twelfth
step;
a fifteenth step (31) for respectively multiplying a gain selected from among a plurality
of gains by said pitch period vector selected by means of said eleventh step, and
an output vector of said fourteenth step; and
a sixteenth step (32) for adding two multiplication results obtained by means of said
fifteenth step, and supplying said addition result to said seventh step as said driving
vectors;
a third flow for selecting a value which will minimize said distortion power calculated
by means of said tenth step when selecting a pitch period vector according to said
eleventh step, selecting a noise waveform vector according to said twelfth step, and
selecting a gain according to said fifteenth step; and
a fourth flow (36) for encoding processed information obtained by means of said structural
means into bit series, adding as necessary error correctional coding, and then transmitting
said encoded bit series ;
wherein said LSP parameter quantized by means of said fifth step is expressed by means
of a weighted mean vector of a plurality of vectors from the current frame operation
and previous frame operations.
2. A speech coding method in accordance with claim 1, wherein said fifth step comprises
:
a first substep for selecting one vector from among a plurality of vectors stored
in a predetermined vector storing means (37);
a second substep for multiplying a ratio constant (g) of a weighted mean by said vector
selected by means of said first substep;
a third substep for multiplying a ratio constant (1 - g) of a weighted mean by said
vector selected by means of said first substep during processing of the frame immediately
preceding (one frame previous to) the current frame operation;
a fourth substep for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said second substep and an output vector of said third substep;
a fifth substep for calculating the distortion data between an LSP parameter (ψk)
before quantization and said quantized LSP parameter (Ωk);
a sixth substep for selecting a vector which will minimize the distortion data calculated
by means of said fifth substep at the time when selecting a vector according to said
first substep; and
a seventh substep for supplying identification information (S1) of a vector selected
according to said first substep as said processed information to said fourth flow.
3. A speech coding method in accordance with claim 1, wherein said fifth step comprises:
a first substep for selecting one vector from among a plurality of vectors stored
in a predetermined vector storing means;
a second substep for obtaining the sum of vectors processed from the current frame
operation to a frame operation n frames previous to the current frame operation for
each vector selected according to said first substep;
a third substep for obtaining said quantized LSP parameter by means of dividing an
output vector of said second substep by n + 1;
a fourth substep for calculating the distortion data between an LSP parameter before
quantization and said quantized LSP parameter;
a fifth substep for selecting a vector which will minimize the distortion data calculated
by means of said fourth substep at the time when selecting a vector according to said
first substep; and
a sixth substep for supplying identification information of a vector selected according
to said first substep as said processed information to said fourth flow.
4. A speech coding method in accordance with claim 1, wherein said fifth step comprises:
a first substep for selecting one vector from among a plurality of vectors stored
in a predetermined vector storing means;
a second substep for selecting one vector from among a plurality of vectors stored
in a separate vector storing means;
a third substep for obtaining the sum of vectors processed from the current frame
operation to a frame operation n frames previous to the current frame operation for
each vector selected according to said first substep;
a fourth substep for adding an output vector of said third substep and said vector
selected by means of said second substep;
a fifth substep for obtaining said quantized LSP parameter by means of dividing said
output vector of said fourth substep by n + 2;
a sixth substep for calculating the distortion data between an LSP parameter before
quantization and said quantized LSP parameter;
a seventh substep for selecting a vector which will minimize the distortion data calculated
by means of said sixth substep at the time when selecting vectors according to said
first substep and said second substep; and
an eighth substep for supplying identification information of vectors selected according
to said first substep and said second substep as said processed information to said
fourth flow.
5. A speech coding method in accordance with claim 1, wherein said fifth step comprises:
a first substep for multiplying a ratio constant (gk) of a weighted mean by each vector
stored in a predetermined vector storing means (37);
a second substep for selecting one vector from among said multiplied vectors;
a third substep for multiplying a ratio constant (1 - gk) of a weighted mean by said
vector selected according to said second substep during processing of the frame immediately
preceding (one frame previous to) the current frame operation ;
a fourth substep for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said second substep and an output vector of said third substep;
a fifth substep for calculating the distortion data between an LSP parameter (Ψk)
before quantization and said quantized LSP parameter (Ωk);
a sixth substep for selecting a vector which will minimize the distortion data calculated
by means of said fifth substep at the time when selecting a vector according to said
second substep; and
a seventh substep for supplying identification information (S1) of a vector selected
according to said second substep as said processed information to said fourth flow.
6. A speech coding method in accordance with claim 1, wherein said fifth step comprises:
a first substep for selecting one vector from among a plurality of vectors stored
in a predetermined vector storing means (37);
a second substep for multiplying a ratio constant (g1) of a first weighted mean by
said vector selected by means of said first substep;
a third substep for multiplying a ratio constant (g2) of a second weighted mean by
said vector selected by means of said first substep;
a fourth substep for selecting one vector from among an output vector of said second
substep and an output vector of said third substep;
a fifth substep for multiplying a ratio constant (1 - g1) of a third weighted mean
by said vector selected by means of said first substep during processing of the frame
immediately preceding (one frame previous to) the current frame operation;
a sixth substep for multiplying a ratio constant (1 - g2) of a fourth weighted mean
by said vector selected by means of said first substep during processing of the frame
immediately preceding (one frame previous to) the current frame operation;
a seventh substep for selecting one vector from among an output vector of said fifth
substep and an output vector of said sixth substep;
an eighth substep for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said fourth substep and an output vector of said seventh substep;
a ninth substep for calculating the distortion data between an LSP parameter (Ψk)
before quantization and said quantized LSP parameter (Ωk);
a tenth substep for selecting a vector which will minimize the distortion data calculated
by means of said ninth substep at the time when selecting a vector according to said
first substep, said fourth substep and said seventh substep; and
an eleventh substep for supplying identification information (S1, S2) of a vector
selected according to said first substep, said fourth substep and said sevcnth substep
as said processed information to said fourth flow.
7. A speech coding method in accordance with claim 1, wherein said fifth step comprises:
a first substep for selecting one vector from among a plurality of vectors stored
in a predetermined vector storing means (37);
a second substep for multiplying a ratio constant (g1) of a first weighted mean by
said vector selected by means of said first substep;
a third substep for multiplying a ratio constant (g2) of a second weighted mean by
said vector selected by means of said first substep;
a fourth substep for selecting one vector from among an output vector of said second
substep and an output vector of said third substep;
a fifth substep for conducting processing of each frame from the frame immediately
preceding the current frame operation to a frame operation n frames previous to the
current frame operation, in which said processing comprises:
a multiplying step for multiplying a ratio constant of a predetermined weighted mean
by a vector selected by means of said first substep during processing of a previous
frame;
a separate multiplying step for multiplying a ratio constant of a predetermined weighted
mean by a vector selected by means of said first substep during processing of a previous
frame; and
a selecting step for selecting a vector from among said output vectors of said two
multiplying steps;
a sixth substep for obtaining the sum of n vectors selected by means of said fifth
substep;
a seventh substep for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said fourth substep and an output vector of said sixth substep;
an eighth substep for calculating the distortion data between an LSP parameter (Ψk)
before quantization and said quantized LSP parameter (Ωk);
a ninth substep for selecting a vector which will minimize the distortion data calculated
by means of said eighth substep at the time when selecting a vector according to said
first substep, said fourth substep and said fifth substep; and
a tenth substep for supplying identification information (S1, S2) of a vector selected
according to said first substep, said fourth substep and said fifth substep as said
processed information to said fourth flow.
8. A speech coding method in accordance with one of claims 2 - 7, wherein said ratio
constant (g, 1 - g, gk, 1 - gk, g1, g2, 1 - g1, 1 - g2) of a weighted mean differs
with each vector element by which said ratio constant is multiplied.
9. A speech coding method in accordance with one of claims 2 - 8, wherein each vector
stored in said vector storing means (37) is expressed by the sum of a plurality of
vectors comprising different dimensions.
10. A speech coding method in accordance with one of claims 2 - 9, wherein said step for
selecting a vector to minimize the distortion data comprises, with regard to parameters
w1, w2, w3,... wp-2, wp-1, wp comprising p-dimensional vector {w1, w2, w3,... wp-2,
wp-1, wp} selected from said vector storing means (37), adjusting said parameters
when the relationship 0 < w1 < w2 < w3 < ... wp-2 < wp-1 < wp < p is not satisfied,
so as to satisfy said relationship.
11. A speech coding method in accordance with one of claims 1 - 10, wherein said thirteenth
step comprises calculating said prediction gain by means of conducting linear prediction
analysis based on the power of an output vector of said fourteenth step multiplied
by a gain during processing of said fifteenth step for the current frame, and the
power of an output vector of said fourteenth step multiplied by a gain during the
processing of said fifteenth step for a past frame.
12. A speech coding method in accordance with one of claims 1 - 11, wherein said fifteenth
step comprises:
a first substep for multiplying a gain selected from among a plurality of gains stored
in a predetermined gain storing means (31a) by half of pitch period vector selected
by means of said eleventh step and half of output vector of said fourteenth step;
a second substep for multiplying a gain selected from among a plurality of gains stored
in a predetermined gain storing means (31b) by the remaining half of pitch period
vector selected by means of said eleventh step and the remaining half of output vector
of said fourteenth step;
a third substep for supplying to said sixteenth step the sum of a pitch period vector
multiplied by a gain according to said first substep and a pitch period vector multiplied
by a gain according to said second substep, as a pitch period vector multiplied by
a gain according to said fifteenth step; and
a fourth substep for supplying to said sixteenth step the sum of an output vector
of said fourteenth step multiplied by a gain according to said first substep and an
output vector of said fourteenth step multiplied by a gain according to said second
substep, as an output vector of said fourteenth step multiplied by a gain according
to said fifteenth step.
13. A speech coding method in accordance with one of claims 1 - 12, wherein said eleventh
step comprises:
calculating a correlation value between an input speech vector outputted by means
of said second step and a synthetic speech vector outputted by means of said seventh
step by means of conducting backward filtering with regard to all pitch period vectors
stored in a predetermined pitch period vector storing means (66);
selecting a pitch period vector which will allow said correlation value to satisfy
predetermined conditions; and
supplying said selected pitch period vector to said fifteenth step.
14. A speech coding method in accordance with one of claims I - 13, wherein said twelfth
step comprises:
a first substep for calculating a correlation value between an input speech vector
outputted by means of said second step and a synthetic speech vector outputted by
means of said seventh step by means of conducting backward filtering with regard to
all excitation vectors stored in a first excitation vector storing means (67a), and
selecting a excitation vector which will allow said correlation value to satisfy predetermined
conditions;
a second substep for calculating a correlation value between an input speech vector
outputted by means of said second step and a synthetic speech vector outputted by
means of said seventh step by means of conducting backward filtering with regard to
all excitation vectors stored in a second excitation vector storing means (67b), and
selecting a excitation vector which will allow said correlation value to satisfy predetermined
conditions; and
a third substep for adding an output vector of said first substep and an output vector
of said second substep, and supplying said addition result to said fourteenth step
as said noise waveform vector.
15. A speech coding method in accordance with one of claims 13, 14, wherein when said
input speech vector is designated XT, an impulse response coefficient of said seventh step is designated H, and one of
said pitch period vector and said noise waveform vector is designated V'i, then said synthetic speech vector is HV'i, said correlation value is XTTHV'i, and said backward filtering is conducted by means of first computing XTTH, followed by computation of (XTTH)V'i.
16. A speech coding apparatus comprising:
a buffer (22) for forming a vector from speech signals comprising a plurality of samples
as a unit of frame operation, and storing said vector as a speech input vector;
an amplitude limiting means (23) for sequentially checking, one frame at a time, the
amplitude of each speech input vector stored in said buffer (22), and compressing
said amplitude when the absolute value of said amplitude exceeds a predetermined value;
an LPC analyzing means (24) for conducting linear prediction analysis and calculating
an LPC coefficient for each speech input vector outputted by means of said amplitude
limiting means (23);
an LPC parameter converting means for converting each LPC coefficient calculated by
means of said LPC analyzing means (24) into an LSP parameter; a vector quantizing
means for quantizing said LSP parameter by means of using a vector quantizing process;
an LPC coefficient converting means for converting said quantized LSP parameter into
a quantized LPC coefficient;
a synthesizing means (26) for synthesizing a synthetic speech vector based on a driving
vector supplied from the exterior, and said quantized LPC coefficient;
a distortion data calculating means (33) for calculating distortion data by means
of subtracting said synthetic speech vector outputted by means of said synthesizing
means (26) from said speech input vector outputted by means of said amplitude limiting
means (23);
a perceptual weighting means (34) for weighting said distortion data obtained by means
of said distortion data calculating means (33);
a distortion power calculating means (35) for calculating the distortion power of
said distortion data with regard to each distortion data weighted by means of said
perceptual weighting means (34);
a pitch period vector searching means (27) for storing a plurality of pitch period
vectors, and for selecting one pitch period vector from among said plurality of stored
pitch period vectors;
a noise waveform vector searching means (28) for storing a plurality of noise waveform
vectors, and for selecting one noise waveform vector from among said plurality of
stored noise waveform vectors;
a gain adapting means (29) for calculating a prediction gain for each noise waveform
vector selected by means of said noise waveform vector searching means (28);
a prediction gain multiplying means (30) for multiplying said prediction gain calculated
by means of said gain adapting means (29) by said noise waveform vector selected by
means of said noise waveform vector searching means (28);
a gain multiplying means (31) for storing a plurality of gains, and for respectively
multiplying a gain selected from among said plurality of stored gains by said pitch
period vector selected by means of said pitch period vector searching means (27) and
an output vector of said prediction gain multiplying means (30);
an adding means (32) for adding two multiplication results obtained by means of said
gain multiplying means (31), and supplying said addition result to said synthesizing
means (26) as said driving vector;
a control means for selecting a value which will minimize said distortion power calculated
by means of said distortion power calculating means (35) when selecting a pitch period
vector by means of said pitch period vector searching means (27), selecting a noise
waveform vector by means of said noise waveform vector searching means (28), and selecting
a gain by means of said gain multiplying means (31); and
a code outputting means (36) for encoding processed information obtained by means
of said structural means into bit series, adding as necessary error correctional coding,
and then transmitting said encoded bit series;
wherein said LSP parameter quantized by means of said vector quantizing means is expressed
by means of a weighted mean vector of a plurality of vectors from the current frame
operation and previous frame operations.
17. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a vector storing means (37) for storing a plurality of vectors;
a selecting means (40) for selecting one vector from among a plurality of vectors
stored in said vector storing means (37);
a first multiplying means (42) for multiplying a ratio constant (g) of a weighted
mean by said vector selected by means of said selecting means (40);
a second multiplying means (38) for multiplying a ratio constant (1 - g) of a weighted
mean by said vector selected by means of said selecting means (40) during processing
of the frame immediately preceding (one frame previous to) the current frame operation;
an adding means (39) for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said first multiplying means (42) and an output vector of said
second multiplying means (38);
a distortion data calculating means (41) for calculating the distortion data between
an LSP parameter (Ψk) before quantization and said quantized LSP parameter (Ωk);
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means (41) at the time when selecting
a vector by means of said selecting means (40); and
a supply means for supplying identification information (S1) of a vector selected
by means of said selecting means (40) as said processed information to said code outputting
means (36).
18. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a vector storing means for storing a plurality of vectors;
a selecting means for selecting one vector from among a plurality of vectors stored
in said vector storing means;
an adding means for calculating the sum of vectors processed from the current frame
operation to a frame operation n frames previous to the current frame operation for
each vector selected by means of said selecting means;
a dividing means for calculating said quantized LSP parameter by means of dividing
an output vector of said second substep by n + 1;
a distortion data calculating means for calculating the distortion data between an
LSP parameter before quantization and said quantized LSP parameter;
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means at the time when selecting a vector
by means of said selecting means; and
a supply means for supplying identification information of a vector selected by means
of said selecting means as said processed information to said code outputting means
(36).
19. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a first vector storing means for storing a plurality of vectors;
a first selecting means for selecting one vector from among a plurality of vectors
stored in said first vector storing means;
a second vector storing means for storing a plurality of vectors;
a second selecting means for selecting one vector from among a plurality of vectors
stored in said second vector storing means;
a first adding means for obtaining the sum of vectors processed from the current frame
operation to a frame operation n frames previous to the current frame operation for
each vector selected by means of said first selecting means;
a second adding means for adding an output vector of said first adding means and said
vector selected by means of said second selecting means;
a dividing means for obtaining said quantized LSP parameter by means of dividing said
output vector of said second adding means by n + 2;
a distortion data calculating means for calculating the distortion data between an
LSP parameter before quantization and said quantized LSP parameter;
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means at the time when selecting vcctors
by means of said first selecting means and said second selecting means; and
a supply means for supplying identification information of vectors selected by means
of said first selecting means and said second selecting means as said processed information
to said code outputting means (36).
20. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a vector storing means (37) for storing a plurality of vectors;
multiplying means (451 ∼ 45n) for multiplying a ratio constant (gk) of a weighted mean by each vector stored in
said vector storing means (37);
a selecting means (46) for selecting one vector from among said multiplied vectors;
a multiplying means (47) for multiplying a ratio constant (1 - gk) of a weighted mean
by said vector selected by means of said selecting means (46) during processing of
the frame immediately preceding (one frame previous to) the current frame operation;
an adding means (39) for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said selecting means (46) and an output vector of said multiplying
means (47);
a distortion data calculating means (41) for calculating the distortion data between
an LSP parameter (Ψk) before quantization and said quantized LSP parameter (Ωk);
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means (41) at the time when selecting
a vector by means of said selecting means (46); and
a supply means for supplying identification information (S1) of a vector selected
by means of said selecting means (46) as said processed information to said code outputting
means (36).
21. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a vector storing means (37) for storing a plurality of vectors;
a first selecting means (40) for selecting one vector from among a plurality of vectors
stored in said vector storing means (37);
a first multiplying means (50) for multiplying a ratio constant (g1) of a first weighted
mean by said vector selected by means of said first selecting means (40);
a second multiplying means (51) for multiplying a ratio constant (g2) of a second
weighted mean by said vector selected by means of said first selecting means (40);
a second selecting means (52) for selecting one vector from among an output vector
of said first multiplying means (50) and an output vector of said second multiplying
means (51);
a third multiplying means (47) for multiplying a ratio constant (1 - g1) of a third
weighted mean by said vector selected by means of said first selecting means (40)
during processing of the frame immediately preceding (one frame previous to) the current
frame operation;
a fourth multiplying means (48) for multiplying a ratio constant (1 - g2) of a fourth
weighted mean by said vector selected by means of said first selecting means (40)
during processing of the frame immediately preceding (one frame previous to) the current
frame operation;
a third selecting means (49) for selecting one vector from among an output vector
of said third multiplying means (47) and an output vector of said fourth multiplying
means (48);
an adding means (39) for obtaining said quantized LSP parameter (Ωk) by means of adding
an output vector of said second selecting means (52) and an output vector of said
third selecting means (49);
a distortion data calculating means (41) for calculating the distortion data between
an LSP parameter (Ψk) before quantization and said quantized LSP parameter (Ωk);
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means (41) at the time when selecting
a vector by means of said first selecting means (40), said second selecting means
(52) and said third selecting means (49); and
a supply means for supplying identification information (S1, S2) of a vector selected
by means of said first selecting means (40), said second selecting means (52) and
said third selecting means (49) as said processed information to said code outputting
means (36).
22. A speech coding apparatus in accordance with claim 16, wherein said vector quantizing
means comprises:
a vector storing means (37) for storing a plurality of vectors;
a first selecting means (40) for selecting one vector from among a plurality of vectors
stored in said vector storing means (37);
a first multiplying means (50) for multiplying a ratio constant (g1) of a first weighted
mean by said vector selected by means of said first selecting means (40);
a second multiplying means (51) for multiplying a ratio constant (g2) of a second
weighted mean by said vector selected by means of said first selecting means (40);
a second selecting means (52) for selecting one vector from among an output vector
of said first multiplying means (50) and an output vector of said second multiplying
means (51);
a multistage weighting means possessing a processing means for conducting processing
of each frame from the frame immediately preceding the current frame operation to
a frame operation n frames previous to the current frame operation, said processing
means comprising:
multiplying means (47, 56, 58, 60) for multiplying a ratio constant of a predetermined
weighted mean by a vector selected by means of said first selecting means (40) during
processing of a previous frame;
separate multiplying means (48, 57, 59, 61) for multiplying a ratio constant of a
predetermined weighted mean by a vector selected by means of said first selecting
means (40) during processing of a previous frame; and
selecting means (49, 62, 63, 64) for selecting a vector from among said output vectors
of said two multiplying means;
first adding means (53, 54, 55) for obtaining the sum of n vectors selected by means
of said multistage weighting means;
a second adding means (39) for obtaining said quantized LSP parameter (Ωk) by means
of adding an output vector of said second selecting means (52) and an output vector
of said first adding means (53);
a distortion data calculating means (41) for calculating the distortion data between
an LSP parameter (Ψk) before quantization and said quantized LSP parameter (Ωk);
a control means for selecting a vector which will minimize the distortion data calculated
by means of said distortion data calculating means (41) at the time when selecting
a vector by means of said selecting means (40, 52, 49, 62, 63, 64); and
a supply means for supplying identification information (S1, S2) of a vector selected
by means of said selecting means (40, 52, 49, 62, 63, 64) as said processed information
to said code outputting means (36).
23. A speech coding apparatus in accordance with one of claims 17 - 22, wherein said ratio
constant (g, 1 - g, gk, 1 - gk, g1, g2, 1 - g1, 1 - g2) of a weighted mean differs
with each vector element by which said ratio constant is multiplied.
24. A speech coding apparatus in accordance with one of claims 17 -23, wherein each vector
stored in said vector storing means (37) is expressed by the sum of a plurality of
vectors comprising different dimensions.
25. A speech coding apparatus in accordance with one of claims 17 - 24, wherein said control
means, with regard to parameters w1, w2, w3,... wp-2, wp-1, wp comprising p dimensional
vector {w1, w2, w3,... wp-2, wp-1, wp} selected from said vector storing means (37),
adjusts said parameters when the relationship 0 < w1 < w2 < w3 < ... wp-2 < wp-1 <
wp < p is not satisfied, so as to satisfy said relationship.
26. A speech coding apparatus in accordance with one of claims 16 - 25, wherein said gain
adapting means (29) calculates said prediction gain by means of conducting linear
prediction analysis based on the power of an output vector of a prediction gain multiplying
means (30) multiplied by a gain during the processing of gain multiplying means (31)
for the current frame, and the power of an output vector of a prediction gain multiplying
means (30) multiplied by a gain during the processing of gain multiplying means (31)
for a past frame.
27. A speech coding apparatus in accordance with one of claims 16-26, wherein said gain
multiplying means (31) comprises:
a first subgain multiplying means (31a) for multiplying a gain selected from among
a plurality of gains stored therein by half of pitch period vector selected by means
of said pitch period vector searching means (27) and half of output vector of said
prediction gain multiplying means (30);
a second subgain multiplying means (31b) for multiplying a gain selected from among
a plurality of gains stored therein by the remaining half of pitch period vector selected
by means of said pitch period vector searching means (27) and the remaining half of
output vector of said prediction gain multiplying means (30);
a first adding means for supplying to said adding means (32) the sum of a pitch period
vector multiplied by a gain by means of said first subgain multiplying means (31a)
and a pitch period vector multiplied by a gain by means of said second subgain multiplying
means (31b), as a pitch period vector multiplied by a gain by means of said gain multiplying
means (31); and
a second adding means for supplying to said adding means (32) the sum of an output
vector of said prediction gain multiplying means (30) multiplied by a gain by means
of said first subgain multiplying means (31a) and an output vector of said prediction
gain multiplying means (30) multiplied by a gain by means of said second subgain multiplying
means (31b), as an output vector of said prediction gain multiplying means (30) multiplied
by a gain by means of said gain multiplying means (31).
28. A speech coding apparatus in accordance with one of claims 16 - 27, wherein said pitch
period vector searching means (27) comprises:
a preselecting means (68) for calculating a correlation value between an input speech
vector outputted by means of said amplitude limiting means (23) and a synthetic speech
vector outputted by means of said synthesizing means (26) by means of conducting backward
filtering with regard to all pitch period vectors stored in said pitch period vector
storing means (66); selecting a pitch period vector which will allow said correlation
value to satisfy predetermined conditions; and supplying said selected pitch period
vector to said gain multiplying means (31).
29. A speech coding apparatus in accordance with one of claims 16 - 28, wherein said noise
waveform vector searching means (28) comprises:
a first excitation vector storing means (67a) for storing a plurality of excitation
vectors;
a first preselecting means (69) for calculating a correlation value between an input
speech vector outputted by means of said amplitude limiting means (23) and a synthetic
speech vector outputted by means of said synthesizing means (26) by means of conducting
backward filtering with regard to all excitation vectors stored in said first excitation
vector storing means (67a), and selecting a excitation vector which will allow said
correlation value to satisfy predetermined conditions;
a second excitation vector storing means (67b) for storing a plurality of excitation
vectors
a second preselecting means (70) for calculating a correlation value between an input
speech vector outputted by means of said amplitude limiting means (23) and a synthetic
speech vector outputted by means of said synthesizing means (26) by means of conducting
backward filtering with regard to all excitation vectors stored in said second excitation
vector storing means (67b), and selecting a excitation vector which will allow said
correlation value to satisfy predetermined conditions; and
an adding means for adding an output vector of said first preselecting means (69)
and an output vector of said second preselecting means (70), and supplying said addition
result to said prediction gain multiplying means (30) as said noise wavefonn vector.
30. A speech coding apparatus in accordance with one of clairns 28, 29, wherein when said
input speech vector is designated XT, an impulse response coefficient of said synthesizing means (26) is designated H,
and one of said pitch period vector and said noise waveform vector is designated V'i, then said synthetic speech vector is HV'i, said correlation value is XTTHV'i, and said backward filtering is conducted by means of first computing XTTH, followed by computation of (XTTH)V'i.
1. Sprachcodierungsverfahren, mit wenigstens vier Abläufen von Schritten, wobei ein erster
Ablauf enthält:
einen ersten Schritt (22) zum Bilden eines Vektors aus Sprachsignalen, der mehrere
Abtastwerte enthält, als Einheit einer Rahmenoperation und Speichern des Vektors als
Spracheingangsvektor;
einen zweiten Schritt (23) zum aufeinanderfolgenden Prüfen, ein Rahmen zu einem Zeitpunkt,
der Amplitude jedes Spracheingangsvektors und zum Komprimieren der Amplitude, wenn
der Absolutwert der Amplitude einen vorgegebenen Wert übersteigt;
einen dritten Schritt (24) zum Ausführen einer linearen Prädiktionsanalyse und zum
Berechnen eines LPC-Koeffizienten für jeden vom zweiten Schritt ausgegebenen Spracheingangsvektor;
einen vierten Schritt zum Umsetzen jedes im dritten Schritt berechneten LPC-Koeffizienten
in einen LSP-Parameter;
einen fünften Schritt zum Quantisieren des LSP-Parameters unter Verwendung eines Vektorquantisierungsprozesses;
einen sechsten Schritt zum Umsetzen des quantisierten LSP-Parameters in einen quantisierten
LPC-Koeffizienten;
einen siebten Schritt (26) zum Synthetisieren eines synthetischen Sprachvektors auf
der Grundlage eines von außerhalb zugeführten Treibervektors und des quantisierten
LPC-Koeffizienten;
einen achten Schritt (33) zum Berechnen von Abweichungsdaten durch Subtrahieren des
im siebten Schritt ausgegebenen synthetischen Sprachvektors von dem vom zweiten Schritt
ausgegebenen Spracheingangsvektor;
einen neunten Schritt (34) zum Gewichten der im achten Schritt berechneten Abweichungsdaten;
einen zehnten Schritt (35) zum Berechnen des Abweichungsgrades der Abweichungsdaten
in bezug auf jede Abweichungsdateneinheit, die im neunten Schritt gewichtet wurde;
wobei ein zweiter Ablauf enthält:
einen elften Schritt (27) zum Auswählen eines Schrittweitenvektors aus mehreren Schrittweitenvektoren;
einen zwölften Schritt (28) zum Auswählen eines Rauschsignalformvektors aus mehreren
Rauschsignalformvektoren;
einen dreizehnten Schritt (29) zum Berechnen eines Prädiktionsverstärkungsfaktors
für jeden im zwölften Schritt gewählten Rauschsignalformvektor;
einen vierzehnten Schritt (30) zum Multiplizieren des im dreizehnten Schritt berechneten
Prädiktionsverstärkungsfaktors mit dem im zwölften Schritt ausgewählten Rauschsignalformvektor;
einen fünfzehnten Schritt (31) zum Multiplizieren eines aus mehreren Verstärkungsfaktoren
ausgewählten Verstärkungsfaktors mit dem im elften Schritt ausgewählten Schrittweitenvektor
bzw. mit einem Ausgangsvektor des vierzehnten Schrittes;
einen sechzehnten Schritt (32) zum Addieren von zwei im fünfzehnten Schritt erhaltenen
Multiplikationsergebnissen und zum Liefern des Additionsergebnisses an den siebten
Schritt als Treibervektor;
wobei ein dritter Ablauf einen Wert auswählt, der den im zehnten Schritt berechneten
Abweichungsgrad minimiert, wenn ein Schrittweitenvektor gemäß dem elften Schritt ausgewählt
wird, ein Rauschsignalformvektor gemäß dem zwölften Schritt ausgewählt wird und ein
Verstärkungsfaktor gemäß dem fünfzehnten Schritt ausgewählt wird;
wobei ein vierter Ablauf (36) verarbeitete Informationen, die von den Struktureinrichtungen
erhalten werden, in Bitreihen codiert und, falls notwendig, eine Fehlerkorrekturcodierung
hinzufügt und dann die codierten Bitreihen überträgt;
wobei der im fünften Schritt quantisierte LSP-Parameter durch einen gewichteten Mittelwertvektor
mehrerer Vektoren der laufenden Rahmenoperation und der vorhergehenden Rahmenoperationen
gegeben ist.
2. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die in
einer vorgegebenen Vektorspeichereinrichtung (37) gespeichert sind;
einen zweiten Unterschritt zum Multiplizieren einer Verhältniskonstanten (g) eines
gewichteten Mittelwerts mit dem im ersten Unterschritt ausgewählten Vektor;
einen dritten Unterschritt zum Multiplizieren einer Verhältniskonstanten (1 - g) eines
gewichteten Mittelwerts mit dem während der Verarbeitung des der laufenden Rahmenoperation
unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden Rahmenoperation)
im ersten Unterschritt ausgewählten Vektor;
einen vierten Unterschritt zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors des zweiten Unterschritts und eines Ausgangsvektors
des dritten Unterschritts;
einen fünften Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
(Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter (Ωk);
einen sechsten Unterschritt zum Auswählen eines Vektors, der die im fünften Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor gemäß
dem ersten Unterschritt gewählt wird,;
einen siebten Unterschritt zum Liefern von Identifizierungsinformationen (S1) eines
im ersten Unterschritt ausgewählten Vektors als die verarbeiteten Informationen an
den vierten Ablauf.
3. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die in
einer vorgegebenen Vektorspeichereinrichtung gespeichert sind;
einen zweiten Unterschritt zum Erhalten der Summe der Vektoren, die von der laufenden
Rahmenoperation bis zu einer Rahmenoperation, die n Rahmen vor der laufenden Rahmenoperation
liegt, verarbeitet wurden, für jeden gemäß dem ersten Unterschritt ausgewählten Vektor;
einen dritten Unterschritt zum Erhalten des quantisierten LSP-Parameters durch Dividieren
eines Ausgangsvektors des zweiten Unterschritts durch n + 1;
einen vierten Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
vor der Quantisierung und dem quantisierten LSP-Parameter;
einen fünften Unterschritt zum Auswählen eines Vektors, der die im vierten Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor gemäß
dem ersten Unterschritt ausgewählt wird;
einen sechsten Unterschritt zum Liefern von Identifizierungsinformationen eines gemäß
dem ersten Unterschritt ausgewählten Vektors als die verarbeiteten Informationen an
den vierten Ablauf.
4. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die in
einer vorgegebenen Vektorspeichereinrichtung gespeichert sind;
einen zweiten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die
in einer separaten Vektorspeichereinrichtung gespeichert sind;
einen dritten Unterschritt zum Erhalten der Summe von Vektoren, die von der laufenden
Rahmenoperation bis zu einer Rahmenoperation, die n Rahmen vor der laufenden Rahmenoperation
liegt, verarbeitet wurden, für jeden gemäß dem ersten Unterschritt ausgewählten Vektor;
einen vierten Unterschritt zum Addieren eines Ausgangsvektors des dritten Unterschritts
und des im zweiten Unterschritt ausgewählten Vektors;
einen fünften Unterschritt zum Erhalten des quantisierten LSP-Parameters durch Dividieren
des Ausgangsvektors des vierten Unterschritts durch n + 2;
einen sechsten Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
vor der Quantisierung und dem quantisierten LSP-Parameter;
einen siebten Unterschritt zum Auswählen eines Vektors, der die im sechsten Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem Vektoren gemäß
dem ersten Unterschritt und dem zweiten Unterschritt ausgewählt werden;
einen achten Unterschritt zum Liefern von Identifizierungsinformationen von gemäß
dem ersten Unterschritt und dem zweiten Unterschritt ausgewählten Vektoren als die
verarbeiteten Informationen an den vierten Ablauf.
5. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Multiplizieren einer Verhältniskonstanten (gk) eines
gewichteten Mittelwerts mit jedem in einer vorgegebenen Vektorspeichereinrichtung
(37) gespeicherten Vektor;
einen zweiten Unterschritt zum Auswählen eines Vektors aus den multiplizierten Vektoren;
einen dritten Unterschritt zum Multiplizieren einer Verhältniskonstanten (1 - gk)
eines gewichteten Mittelwerts des während der Verarbeitung des der laufenden Rahmenoperation
unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden Rahmenoperation)
gemäß dem zweiten Unterschritt ausgewählten Vektors;
einen vierten Unterschritt zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors des zweiten Unterschritts und eines Ausgangsvektors
des dritten Unterschritts;
einen fünften Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
(Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter (Ωk);
einen sechsten Unterschritt zum Auswählen eines Vektors, der die im fünften Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor gemäß
dem zweiten Unterschritt ausgewählt wird;
einen siebten Unterschritt zum Liefern von Identifizierungsinformationen (S1) eines
gemäß dem zweiten Unterschritt ausgewählten Vektors als die verarbeiteten Informationen
an den vierten Ablauf.
6. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die in
einer vorgegebenen Vektorspeichereinrichtung (37) gespeichert sind;
einen zweiten Unterschritt zum Multiplizieren einer Verhältniskonstanten (g1) eines
ersten gewichteten Mittelwerts mit einem im ersten Unterschritt ausgewählten Vektor;
einen dritten Unterschritt zum Multiplizieren einer Verhältniskonstanten (g2) eines
zweiten gewichteten Mittelwerts mit dem im ersten Unterschritt ausgewählten Vektor;
einen vierten Unterschritt zum Auswählen eines Vektors aus einem Ausgangsvektor des
zweiten Unterschritts und einem Ausgangsvektor des dritten Unterschritts;
einen fünften Unterschritt zum Multiplizieren einer Verhältniskonstanten (1 - g1)
eines dritten gewichteten Mittelwerts mit dem während der Verarbeitung des der laufenden
Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden
Rahmenoperation) im ersten Unterschritt ausgewählten Vektor;
einen sechsten Unterschritt zum Multiplizieren einer Verhältniskonstanten (1 - g2)
eines vierten gewichteten Mittelwerts mit der während der Verarbeitung des der laufenden
Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden
Rahmenoperation) im ersten Unterschritt ausgewählten Vektor;
einen siebten Unterschritt zum Auswählen eines Vektors aus einem Ausgangsvektor des
fünften Unterschritts und einem Ausgangsvektor des sechsten Unterschritts;
einen achten Unterschritt zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors des vierten Unterschritts und eines Ausgangsvektors
des siebten Unterschritts;
einen neunten Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
(Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter (Ωk);
einen zehnten Unterschritt zum Auswählen eines Vektors, der die im neunten Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor gemäß
dem ersten Unterschritt, dem vierten Unterschritt und dem siebten Unterschritt ausgewählt
wird;
einen elften Unterschritt zum Liefern von Identifizierungsinformationen (S1, S2) eines
gemäß dem ersten Unterschritt, dem vierten Unterschritt und dem siebten Unterschritt
ausgewählten Vektors als die verarbeiteten Informationen an den vierten Ablauf.
7. Sprachcodierungsverfahren nach Anspruch 1, in dem der fünfte Schritt enthält:
einen ersten Unterschritt zum Auswählen eines Vektors aus mehreren Vektoren, die in
einer vorgegebenen Vektorspeichereinrichtung (37) gespeichert sind;
einen zweiten Unterschritt zum Multiplizieren einer Verhältniskonstanten (g1) eines
ersten gewichteten Mittelwerts mit dem im ersten Unterschritt ausgewählten Vektor;
einen dritten Unterschritt zum Multiplizieren einer Verhältniskonstanten (g2) eines
zweiten gewichteten Mittelwerts des im ersten Unterschritt ausgewählten Vektors;
einen vierten Unterschritt zum Auswählen eines Vektors aus einem Ausgangsvektor des
zweiten Unterschritts und einem Ausgangsvektor des dritten Unterschritts;
einen fünften Unterschritt zum Ausführen einer Verarbeitung jedes Rahmens von dem
der laufenden Rahmenoperation unmittelbar vorhergehenden Rahmen zu einer Rahmenoperation,
die n Rahmen vor der laufenden Rahmenoperation liegt, wobei die Verarbeitung umfaßt:
einen Multiplikationsschritt zum Multiplizieren einer Verhältniskonstanten eines vorgegebenen
gewichteten Mittelwerts mit einem während der Verarbeitung eines vorhergehenden Rahmens
im ersten Unterschritt ausgewählten Vektor;
einen separaten Multiplikationsschritt zum Multiplizieren einer Verhältniskonstanten
eines vorgegebenen gewichteten Mittelwerts mit einem während der Verarbeitung eines
vorhergehenden Rahmens im ersten Unterschritt ausgewählten Vektor;
einen Auswählschritt zum Auswählen eines Vektors aus den Ausgangsvektoren der zwei
Multiplikationsschritte;
einen sechsten Unterschritt zum Erhalten der Summe von n Vektoren, die im fünften
Unterschritt ausgewählt worden sind;
einen siebten Unterschritt zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors des -vierten Unterschritts und eines Ausgangsvektors
des sechsten Unterschritts;
einen achten Unterschritt zum Berechnen der Abweichungsdaten zwischen einem LSP-Parameter
(Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter (Ωk) ;
einen neunten Unterschritt zum Auswählen eines Vektors, der die im achten Unterschritt
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor gemäß
dem ersten Unterschritt, dem vierten Unterschritt und dem fünften Unterschritt ausgewählt
wird;
einen zehnten Unterschritt zum Liefern von Identifizierungsinformationen (S 1, S 2)
eines im ersten Unterschritt, im vierten Unterschritt und im fünften Unterschritt
ausgewählten Vektors als die verarbeiteten Informationen an den vierten Ablauf.
8. Sprachcodierungsverfahren nach einem der Ansprüche 2-7, in dem sich die Verhältniskonstante
(g, 1 - g, gk, 1 - gk, g1, g2, 1 - g1, 1 - g2) eines gewichteten Mittelwerts von jedem
Vektorelement unterscheidet, mit dem die Verhältniskonstante multipliziert wird.
9. Sprachcodierungsverfahren nach einem der Ansprüche 2-8, in dem jeder in der Vektorspeichereinrichtung
(37) gespeicherte Vektor durch die Summe mehrerer Vektoren mit unterschiedlichen Dimensionen
gegeben ist.
10. Sprachcodierungsverfahren nach einem der Ansprüche 2-9, in dem der Schritt zum Auswählen
eines Vektors für die Minimierung der Abweichungsdaten in bezug auf Parameter w1,
w2, w3, ..., wp - 2, wp - 1, wp, die einen aus der Vektorspeichereinrichtung (37)
ausgewählten p-dimensionalen Vektor {w1, w2, w3, ... , wp - 2, wp - 1, wp} bilden,
das Einstellen der Parameter umfaßt, sofern die Beziehung
0 < w1 < w2 < w3 < ... < wp - 2 < wp - 1 < wp < p nicht erfüllt ist, damit die Beziehung
erfüllt wird.
11. Sprachcodierungsverfahren nach einem der Ansprüche 1-10, in dem der dreizehnte Schritt
das Berechnen des Prädiktionsverstärkungsfaktors durch Ausführen einer linearen Prädiktionsanalyse
auf der Grundlage des Grades eines Ausgangsvektors des vierzehnten Schrittes, der
während der Verarbeitung des fünfzehnten Schrittes für den laufenden Rahmen mit einem
Verstärkungsfaktor multipliziert wird, und des Grades eines Ausgangsvektors des vierzehnten
Schrittes, der während der Verarbeitung des fünfzehnten Schrittes für einen vergangenen
Rahmen mit einem Verstärkungsfaktor multipliziert wird, enthält.
12. Sprachcodierungsverfahren nach einem der Ansprüche 1-11, in dem der fünfzehnte Schritt
enthält:
einen ersten Unterschritt zum Multiplizieren eines Verstärkungsfaktors, der aus mehreren
in einer vorgegebenen Verstärkungsfaktor-Speichereinrichtung (31a) gespeicherten Verstärkungsfaktoren
ausgewählt wird, mit der Hälfte des Schrittweitenvektors, der im elften Schritt ausgewählt
wird, und der Hälfte des Ausgangsvektors des vierzehnten Schrittes;
einen zweiten Unterschritt zum Multiplizieren eines Verstärkungsfaktors, der aus mehreren
in einer vorgegebenen Verstärkungsfaktor-Speichereinrichtung (31b) gespeicherten Verstärkungsfaktoren
ausgewählt wird, mit der verbleibenden Hälfte des im elften Schritt ausgewählten Schrittweitenvektors
und der verbleibenden Hälfte des Ausgangsvektors des vierzehnten Schrittes;
einen dritten Unterschritt zum Liefern der Summe aus einem mit einem Verstärkungsfaktor
gemäß dem ersten Unterschritt multiplizierten Schrittweitenvektor und aus einem mit
einem Verstärkungsfaktor gemäß dem zweiten Unterschritt multiplizierten Schrittweitenvektor
als Schrittweitenvektor, der mit einem Verstärkungsfaktor gemäß dem fünfzehnten Schritt
multipliziert ist, an den sechzehnten Schritt;
einen vierten Unterschritt zum Liefern der Summe aus einem mit einem Verstärkungsfaktor
gemäß dem ersten Unterschritt multiplizierten Ausgangsvektor des vierzehnten Schrittes
und aus einem mit einem Verstärkungsfaktor gemäß dem zweiten Unterschritt multiplizierten
Ausgangsvektor des vierzehnten Schrittes als Ausgangsvektor des vierzehnten Schrittes,
der mit einem Verstärkungsfaktor gemäß dem fünfzehnten Schritt multipliziert ist,
an den sechzehnten Schritt.
13. Sprachcodierungsverfahren nach einem der Ansprüche 1-12, in dem der elfte Schritt
enthält:
Berechnen eines Korrelationswertes zwischen einem vom zweiten Schritt ausgegebenen
Eingangssprachvektor und einem vom siebten Schritt ausgegebenen synthetischen Sprachvektor
durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche Schrittweitenvektoren,
die in einer vorgegebenen Schrittweitenvektor-Speichereinrichtung (66) gespeichert
sind;
Auswählen eines Schrittweitenvektors, der ermöglicht, daß der Korrelationswert vorgegebene
Bedingungen erfüllt;
Liefern des ausgewählten Schrittweitenvektors an den fünfzehnten Schritt.
14. Sprachcodierungsverfahren nach einem der Ansprüche 1-13, in dem der zwölfte Schritt
enthält:
einen ersten Unterschritt zum Berechnen eines Korrelationswerts zwischen einem vom
zweiten Schritt ausgegebenen Eingangssprachvektor und einem vom siebten Schritt ausgegebenen
synthetischen Sprachvektor durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche
Erregungsvektoren, die in einer ersten Erregungsvektor-Speichereinrichtung (67a) gespeichert
sind, und durch Auswählen eines Erregungsvektors, der ermöglicht, daß der Korrelationswert
vorgegebene Bedingungen erfüllt;
einen zweiten Unterschritt zum Berechnen eines Korrelationswerts zwischen einem vom
zweiten Schritt ausgegebenen Eingangssprachvektor und einem vom siebten Schritt ausgegebenen
synthetischen Sprachvektor durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche
Erregungsvektoren, die in einer zweiten Erregungsvektor-Speichereinrichtung (67b)
gespeichert sind, und durch Auswählen eines Erregungsvektors, der ermöglicht, daß
der Korrelationswert vorgegebene Bedingungen erfüllt;
einen dritten Unterschritt zum Addieren eines Ausgangsvektors des ersten Unterschritts
und eines Ausgangsvektors des zweiten Unterschritts und zum Liefern des Additionsergebnisses
an den vierzehnten Schritt als Rauschsignalformvektor.
15. Sprachcodierungsverfahren nach einem der Ansprüche 13, 14, in dem dann, wenn der Eingangssprachvektor
mit XT bezeichnet ist, ein Impulsantwortkoeffizient des siebten Schrittes mit H bezeichnet
ist und entweder der Schrittweitenvektor oder der Rauschsignalformvektor mit V'i bezeichnet ist, der synthetische Sprachvektor HV'i lautet, der Korrelationswert XTTHV'i lautet und die Rückwärtsfilterung dadurch ausgeführt wird, daß zuerst XTTH berechnet wird, gefolgt von der Berechnung von (XTTH) V'i.
16. Sprachcodierungsvorrichtung, mit:
einem Puffer (22) zum Bilden eines Vektors aus Sprachsignalen, der mehrere Abtastwerte
enthält, als Einheit einer Rahmenoperation und Speichern des Vektors als Spracheingangsvektor;
einer Amplitudenbegrenzungseinrichtung (23) zum sequentiellen Prüfen, ein Rahmen zu
einem Zeitpunkt, der Amplitude jedes im Puffer (22) gespeicherten Spracheingangsvektors
und zum Komprimieren der Amplitude, wenn der Absolutwert der Amplitude einen vorgegebenen
Wert übersteigt;
einer LPC-Analyseeinrichtung (24) zum Ausführen einer linearen Prädiktionsanalyse
und zum Berechnen eines LPC-Koeffizienten für jeden von der Amplitudenbegrenzungseinrichtung
(23) ausgegebenen Spracheingangsvektor;
einer LPC-Parameter-Umsetzungseinrichtung zum Umsetzen jedes von der LPC-Analyseeinrichtung
(24) berechneten LPC-Koeffizienten in einen LSP-Parameter;
einer Vektorquantisierungseinrichtung zum Quantisieren des LSP-Parameters unter Verwendung
eines Vektorquantisierungsprozesses;
einer LPC-Koeffizienten-Umsetzungseinrichtung zum Umsetzen des quantisierten LSP-Parameters
in einen quantisierten LPC-Koeffizienten;
einer Synthetisierungseinrichtung (26) zum Synthetisieren eines synthetischen Sprachvektors
auf der Grundlage eines von außerhalb gelieferten Treibervektors und des quantisierten
LPC-Koeffizienten;
einer Abweichungsdaten-Berechnungseinrichtung (33) zum Berechnen von Abweichungsdaten
durch Subtrahieren des von der Synthetisierungseinrichtung (26) ausgegebenen synthetischen
Sprachvektors von dem von der Amplitudenbegrenzungseinrichtung (23) ausgegebenen Spracheingangsvektor;
einer Wahrnehmungsgewichtungseinrichtung (34) zum Gewichten der von der Abweichungsdaten-Berechnungseinrichtung
(33) erhaltenen Abweichungsdaten;
einer Abweichungsgrad-Berechnungseinrichtung (35) zum Berechnen des Abweichungsgrades
der Abweichungsdaten in bezug auf jede Abweichungsdateneinheit, die von der Wahrnehmungsgewichtungseinrichtung
(34) gewichtet wird;
einer Schrittweitenvektor-Sucheinrichtung (27) zum Speichern mehrerer Schrittweitenvektoren
und zum Auswählen eines Schrittweitenvektors aus den mehreren gespeicherten Schrittweitenvektoren;
einer Rauschsignalformvektor-Sucheinrichtung (28) zum Speichern mehrerer Rauschsignalformvektoren
und zum Auswählen eines Rauschsignalformvektors aus den mehreren gespeicherten Rauschsignalformvektoren;
einer Verstärkungsfaktor-Anpassungseinrichtung (29) zum Berechnen eines Prädiktionsverstärkungsfaktors
für jeden durch die Rauschsignalformvektor-Sucheinrichtung (28) ausgewählten Rauschsignalformvektor;
einer Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung (30) zum Multiplizieren
des von der Verstärkungsfaktor-Anpassungseinrichtung (29) berechneten Prädiktionsverstärkungsfaktors
mit dem von der Rauschsignalformvektor-Sucheinrichtung (28) ausgewählten Rauschsignalformvektor;
einer Verstärkungsfaktor-Multiplikationseinrichtung (31) zum Speichern mehrerer Verstärkungsfaktoren
und zum Multiplizieren eines aus den mehreren gespeicherten Verstärkungsfaktoren ausgewählten
Verstärkungsfaktors mit dem von der Schrittweitenvektor-Sucheinrichtung (27) ausgewählten
Schrittweitenvektor bzw. mit einem Ausgangsvektor der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30);
einer Addiereinrichtung (32) zum Addieren zweier Multiplikationsergebnisse, die von
der Verstärkungsfaktor-Multiplikationseinrichtung (31) erhalten werden, und Liefern
des Additionsergebnisses an die Synthetisierungseinrichtung (26) als den Treibervektor;
einer Steuereinrichtung zum Auswählen eines Werts, der den von der Abweichungsgrad-Berechnungseinrichtung
(35) berechneten Abweichungsgrad minimal macht, wenn ein Schrittweitenvektor durch
die Schrittweitenvektor-Sucheinrichtung (27) ausgewählt wird, zum Auswählen eines
Rauschsignalformvektors durch die Rauschsignalformvektor-Sucheinrichtung (28) und
zum Auswählen eines Verstärkungsfaktors durch die Verstärkungsfaktor-Multiplikationseinrichtung
(31);
einer Codeausgabeeinrichtung (36) zum Codieren von von den Struktureinrichtungen erhaltenen
verarbeiteten Informationen in Bitreihen, zum Addieren einer Fehlerkorrekturcodierung,
falls notwendig, und zum anschließenden Übertragen der codierten Bitreihen;
wobei der durch die Vektorquantisierungseinrichtung quantisierte LSP-Parameter durch
einen gewichteten Mittelwertvektor mehrerer Vektoren der laufenden Rahmenoperation
und vorhergehender Rahmenoperationen gegeben ist.
17. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine Vektorspeichereinrichtung (37) zum Speichern mehrerer Vektoren;
eine Auswähleinrichtung (40) zum Auswählen eines Vektors aus mehreren in der Vektorspeichereinrichtung
(37) gespeicherten Vektoren;
eine erste Multiplikationseinrichtung (42) zum Multiplizieren einer Verhältniskonstanten
(g) eines gewichteten Mittelwerts mit dem von der Auswähleinrichtung (40) ausgewählten
Vektor;
eine zweite Multiplikationseinrichtung (38) zum Multiplizieren einer Verhältniskonstanten
(1 - g) eines gewichteten Mittelwerts mit dem während der Verarbeitung des der laufenden
Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden
Rahmenoperation) von der Auswähleinrichtung (40) ausgewählten Vektor;
eine Addiereinrichtung (39) zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors der ersten Multiplikationseinrichtung (42) und eines
Ausgangsvektors der zweiten Multiplikationseinrichtung (38);
eine Abweichungsdaten-Berechnungseinrichtung (41) zum Berechnen der Abweichungsdaten
zwischen einem LSP-Parameter (Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter
(Ωk);
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
(41) berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor
von der Auswähleinrichtung (40) gewählt wird;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen (S1) eines von
der Auswähleinrichtung (40) ausgewählten Vektors als die verarbeiteten Informationen
an die Codeausgabeeinrichtung (36).
18. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine Vektorspeichereinrichtung zum Speichern mehrerer Vektoren;
eine Auswähleinrichtung zum Auswählen eines Vektors aus mehreren in der Vektorspeichereinrichtung
gespeicherten Vektoren;
eine Addiereinrichtung zum Berechnen der Summe von Vektoren, die von der laufenden
Rahmenoperation bis zu einer Rahmenoperation, die n Rahmen vor der laufenden Rahmenoperation
liegt, verarbeitet wurden, für jeden von der Auswähleinrichtung ausgewählten Vektor;
eine Dividiereinrichtung zum Berechnen des quantisierten LSP-Parameters durch Dividieren
eines Ausgangsvektors des zweiten Unterschrittes durch n + 1;
eine Abweichungsdaten-Berechnungseinrichtung zum Berechnen der Abweichungsdaten zwischen
einem LSP-Parameter vor der Quantisierung und dem quantisierten LSP-Parameter;
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem von der Auswähleinrichtung
ein Vektor ausgewählt wird;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen eines von der
Auswähleinrichtung ausgewählten Vektors als die verarbeiteten Informationen an die
Codeausgabeeinrichtung (36).
19. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine erste Vektorspeichereinrichtung zum Speichern von mehreren Vektoren;
eine erste Auswähleinrichtung zum Auswählen eines Vektors aus mehreren in der Vektorspeichereinrichtung
gespeicherten Vektoren;
eine zweite Vektorspeichereinrichtung zum Speichern mehrerer Vektoren;
eine zweite Auswähleinrichtung zum Auswählen eines Vektors aus mehreren in der zweiten
Vektorspeichereinrichtung gespeicherten Vektoren;
eine erste Addiereinrichtung zum Erhalten der Summe von Vektoren, die von der laufenden
Rahmenoperation bis zu einer Rahmenoperation, die n Rahmen vor der laufenden Rahmenoperation
liegen, verarbeitet wurden, für jeden von der ersten Auswähleinrichtung ausgewählten
Vektor;
eine zweite Addiereinrichtung zum Addieren eines Ausgangsvektors der ersten Addiereinrichtung
und des von der zweiten Auswähleinrichtung ausgewählten Vektors;
eine Dividiereinrichtung zum Erhalten des quantisierten LSP-Parameters durch Dividieren
des Ausgangsvektors der zweiten Addiereinrichtung durch n + 2;
eine Abweichungsdaten-Berechnungseinrichtung zum Berechnen der Abweichungsdaten zwischen
einem LSP-Parameter vor der Quantisierung und dem quantisierten LSP-Parameter;
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem von der ersten
Auswähleinrichtung und von der zweiten Auswähleinrichtung Vektoren ausgewählt werden;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen von von der ersten
Auswähleinrichtung und von der zweiten Auswähleinrichtung ausgewählten Vektoren als
die verarbeiteten Informationen an die Codeausgabeeinrichtung (36).
20. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine Vektorspeichereinrichtung (37) zum Speichern mehrerer Vektoren;
eine Multiplikationseinrichtung (451 - 45n) zum Multiplizieren einer Verhältniskonstanten (gk) eines gewichteten Mittelwerts
mit jedem in der Vektorspeichereinrichtung (37) gespeicherten Vektor;
eine Auswähleinrichtung (46) zum Auswählen eines Vektors aus den multiplizierten Vektoren;
eine Multiplikationseinrichtung (47) zum Multiplizieren einer Verhältniskonstanten
(1 - gk) eines gewichteten Mittelwerts mit dem während der Verarbeitung des der laufenden
Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor der laufenden
Rahmenoperation) von der Auswähleinrichtung (46) ausgewählten Vektor;
eine Addiereinrichtung (39) zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors der Auswähleinrichtung (46) und eines Ausgangsvektors
der Multiplikationseinrichtung (47);
eine Abweichungsdaten-Berechnungseinrichtung (41) zum Berechnen der-Abweichungsdaten
zwischen einem LSP-Parameter (Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter
(Ωk);
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
(41) berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem von der
Auswähleinrichtung (46) ein Vektor ausgewählt wird;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen (S 1) eines von
der Auswähleinrichtung (46) ausgewählten Vektors als die verarbeiteten Informationen
an die Codeausgabeeinrichtung (36).
21. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine Vektorspeichereinrichtung (37) zum Speichern mehrerer Vektoren;
eine erste Auswähleinrichtung (40) zum Auswählen eines Vektors aus mehreren Vektoren,
die in der Vektorspeichereinrichtung (37) gespeichert sind;
eine erste Multiplikationseinrichtung (50) zum Multiplizieren einer Verhältniskonstanten
(g1) eines ersten gewichteten Mittelwerts mit dem von der ersten Auswähleinrichtung
(40) ausgewählten Vektor;
einer zweiten Multiplikationseinrichtung (51) zum Multiplizieren einer Verhältniskonstanten
(g2) eines zweiten gewichteten Mittelwerts mit dem von der ersten Auswähleinrichtung
(40) ausgewählten Vektor;
eine zweite Auswähleinrichtung (52) zum Auswählen eines Vektors aus einem Ausgangsvektor
der ersten Multiplikationseinrichtung (50) und einem Ausgangsvektor der zweiten Multiplikationseinrichtung
(51);
eine dritte Multiplikationseinrichtung (47) zum Multiplizieren einer Verhältniskonstanten
(1 - g1) eines dritten gewichteten Mittelwerts mit dem während der Verarbeitung des
der laufenden Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor
der laufenden Rahmenoperation) von der ersten Auswähleinrichtung (40) ausgewählten
Vektor;
eine vierte Multiplikationseinrichtung (48) zum Multiplizieren einer Verhältniskonstanten
(1 - g2) eines vierten gewichteten Mittelwerts mit dem während der Verarbeitung des
der laufenden Rahmenoperation unmittelbar vorhergehenden Rahmens (eines Rahmens vor
der laufenden Rahmenoperation) von der ersten Auswähleinrichtung (40) ausgewählten
Vektor;
eine dritte Auswähleinrichtung (49) zum Auswählen eines Vektors aus einem Ausgangsvektor
der dritten Multiplikationseinrichtung (47) und einem Ausgangsvektor der vierten Multiplikationseinrichtung
(48);
eine Addiereinrichtung (39) zum Erhalten des quantisierten LSP-Parameters (Ωk) durch
Addieren eines Ausgangsvektors der zweiten Auswähleinrichtung (52) und eines Ausgangsvektors
der dritten Auswähleinrichtung (49);
eine Abweichungsdaten-Berechnungseinrichtung (41) zum Berechnen der Abweichungsdaten
zwischen einem LSP-Parameter (Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter
(Ωk);
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
(41) berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem ein Vektor
von der ersten Auswähleinrichtung (40), von der zweiten Auswähleinrichtung (52) und
von der dritten Auswähleinrichtung (49) ausgewählt wird;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen (S1, S2) eines
von der ersten Auswähleinrichtung (40), von der zweiten Auswähleinrichtung (52) und
von der dritten Auswähleinrichtung (49) ausgewählten Vektors als die verarbeiteten
Informationen an die Codeausgabeeinrichtung (36).
22. Sprachcodierungsvorrichtung nach Anspruch 16, in der die Vektorquantisierungseinrichtung
enthält:
eine Vektorspeichereinrichtung (37) zum Speichern mehrerer Vektoren;
eine erste Auswähleinrichtung (40) zum Auswählen eines Vektors aus mehreren in der
Vektorspeichereinrichtung (37) gespeicherten Vektoren;
eine erste Multiplikationseinrichtung (50) zum Multiplizieren einer Verhältniskonstanten
(g1) eines ersten gewichteten Mittelwerts mit dem von der ersten Auswähleinrichtung
(40) ausgewählten Vektor;
eine zweite Multiplikationseinrichtung (51) zum Multiplizieren einer Verhältniskonstanten
(g2) eines zweiten gewichteten Mittelwerts mit dem von der ersten Auswähleinrichtung
(40) ausgewählten Vektor;
eine zweite Auswähleinrichtung (52) zum Auswählen eines Vektors aus einem Ausgangsvektor
der ersten Multiplikationseinrichtung (50) und einem Ausgangsvektor der zweiten Multiplikationseinrichtung
(51);
eine mehrstufige Gewichtungseinrichtung, die eine Verarbeitungseinrichtung zum Ausführen
einer Verarbeitung für jeden Rahmen von dem der laufenden Rahmenoperation unmittelbar
vorhergehenden Rahmen bis zu einer Rahmenoperation, die n Rahmen vor der laufenden
Rahmenoperation liegt, besitzt, wobei die Verarbeitungseinrichtung enthält:
eine Multiplikationseinrichtung (47, 56, 58, 60) zum Multiplizieren einer Verhältniskonstanten
eines vorgegebenen gewichteten Mittelwerts mit einem während der Verarbeitung eines
vorhergehenden Rahmens von der ersten Auswähleinrichtung (40) ausgewählten Vektor;
eine separate Multiplikationseinrichtung (48, 57, 59, 61) zum Multiplizieren einer
Verhältniskonstanten eines vorgegebenen gewichteten Mittelwerts mit einem während
der Verarbeitung eines vorhergehenden Rahmens von der ersten Auswähleinrichtung (40)
ausgewählten Vektor;
eine Auswähleinrichtung (49, 62, 63, 64) zum Auswählen eines Vektors aus den Ausgangsvektoren
der beiden Multiplikationseinrichtungen;
eine erste Addiereinrichtung (53, 54, 55) zum Erhalten der Summe aus n Vektoren, die
von der mehrstufigen Gewichtungseinrichtung ausgewählt werden;
eine zweite Addiereinrichtung (39) zum Erhalten des quantisierten LSP-Parameters (Ωk)
durch Addieren eines Ausgangsvektors der zweiten Auswähleinrichtung (52) und eines
Ausgangsvektors der ersten Addiereinrichtung (53);
eine Abweichungsdaten-Berechnungseinrichtung (41) zum Berechnen der Abweichungsdaten
zwischen einem LSP-Parameter (Ψk) vor der Quantisierung und dem quantisierten LSP-Parameter
(Ωk);
eine Steuereinrichtung zum Auswählen eines Vektors, der die von der Abweichungsdaten-Berechnungseinrichtung
(41) berechneten Abweichungsdaten minimal macht, zu dem Zeitpunkt, zu dem von der
Auswähleinrichtung (40, 52, 49, 62, 63, 64) ein Vektor ausgewählt wird;
eine Liefereinrichtung zum Liefern von Identifizierungsinformationen (S1, S2) eines
von der Auswähleinrichtung (40, 52, 49, 62, 63, 64) ausgewählten Vektors als die verarbeiteten
Informationen an die Codeausgabeeinrichtung (36).
23. Sprachcodierungsvorrichtung nach einem der Ansprüche 17-22, in der sich die Verhältniskonstante
(g, 1 - g, gk, 1 - gk, g1, g2, 1 - g1, - g2) eines gewichteten Mittelwerts von jedem
Vektorelement unterscheidet, mit dem die Verhältniskonstante multipliziert wird.
24. Sprachcodierungsvorrichtung nach einem der Ansprüche 17-23, in der jeder in der Vektorspeichereinrichtung
(37) gespeicherte Vektor durch die Summe mehrerer Vektoren mit unterschiedlichen Dimensionen
gegeben ist.
25. Sprachcodierungsvorrichtung nach einem der Ansprüche 17-24, in der die Steuereinrichtung
in bezug auf Parameter w1, w2, w3, ... , wp - 2, wp - 1, wp, die einen aus der Vektorspeichereinrichtung
(37) ausgewählten p-dimensionalen Vektor {w1, w2, w3, ... , wp - 2, wp - 1, wp} bilden,
die Parameter einstellt, sofern die Beziehung 0 < w1 < w2 < w3 < ... < wp - 2 < wp
- 1 < wp < p nicht erfüllt ist, damit die Beziehung erfüllt wird.
26. Sprachcodierungsvorrichtung nach einem der Ansprüche 16-25, in der die Verstärkungsfaktor-Anpassungseinrichtung
(29) den Prädiktionsverstärkungsfaktor durch Ausführen einer linearen Prädiktionsanalyse
auf der Grundlage des Grades eines Ausgangsvektors einer Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30), der während der Verarbeitung der Verstärkungsfaktor-Multiplikationseinrichtung
(31) des laufenden Rahmens mit einem Verstärkungsfaktor multipliziert wird, und des
Grades eines Ausgangsvektors einer Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30), der während der Verarbeitung der Verstärkungsfaktor-Multiplikationseinrichtung
(31) für einen vergangenen Rahmen mit einem Verstärkungsfaktor multipliziert wird,
berechnet.
27. Sprachcodierungsvorrichtung nach einem der Ansprüche 16-26, in der die Verstärkungsfaktor-Multiplikationseinrichtung
(31) enthält:
eine erste Unterverstärkungsfaktor-Multiplikationseinrichtung (31a) zum Multiplizieren
eines Verstärkungsfaktors, der aus mehreren darin gespeicherten Verstärkungsfaktoren
ausgewählt ist, mit der Hälfte des von der Schrittweitenvektor-Sucheinrichtung (27)
ausgewählten Schrittweitenvektors und der Hälfte des Ausgangsvektors der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30);
eine zweite Unterverstärkungsfaktor-Multiplikationseinrichtung (31b) zum Multiplizieren
eines Verstärkungsfaktors, der aus mehreren darin gespeicherten Verstärkungsfaktoren
ausgewählt ist, mit der verbleibenden Hälfte des von der Schrittweitenvektor-Sucheinrichtung
(27) ausgewählten Schrittweitenvektors und der verbleibenden Hälfte des Ausgangsvektors
der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung (30);
eine erste Addiereinrichtung zum Liefern der Summe aus einem Schrittweitenvektor,
der von der ersten Unterverstärkungsfaktor-Multiplikationseinrichtung (31a) mit einem
Verstärkungsfaktor multipliziert ist, und einem Schrittweitenvektor, der von der zweiten
Unterverstärkungsfaktor-Multiplikationseinrichtung (31b) mit einem Verstärkungsfaktor
multipliziert ist, als Schrittweitenvektor, der von der Verstärkungsfaktor-Multiplikationseinrichtung
(31) mit einem Verstärkungsfaktor multipliziert ist, an die Addiereinrichtung (32);
eine zweite Addiereinrichtung zum Liefern der Summe aus einem Ausgangsvektor der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30), der von der ersten Unterverstärkungsfaktor-Multiplikationseinrichtung (31a)
mit einem Verstärkungsfaktor multipliziert ist, und einem Ausgangsvektor der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30), der von der zweiten Unterverstärkungsfaktor-Multiplikationseinrichtung (31b)
mit einem Verstärkungsfaktor multipliziert ist, als Ausgangsvektor der Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30), der von der Verstärkungsfaktor-Multiplikationseinrichtung (31) mit einem Verstärkungsfaktor
multipliziert ist, an die Addiereinrichtung (32).
28. Sprachcodierungsvorrichtung nach einem der Ansprüche 16-27, in der die Schrittweitenvektor-Sucheinrichtung
(27) enthält:
eine Vorauswähleinrichtung (68) zum Berechnen eines Korrelationswerts zwischen einem
von der Amplitudenbegrenzungseinrichtung (23) ausgegebenen Eingangssprachvektor und
einem von der Synthetisierungseinrichtung (26) ausgegebenen synthetischen Sprachvektor
durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche Schrittweitenvektoren,
die in der Schrittweitenvektor-Speichereinrichtung (66) gespeichert sind; zum Auswählen
eines Schrittweitenvektors, der ermöglicht, daß der Korrelationswert vorgegebene Bedingungen
erfüllt; und zum Liefern des ausgewählten Schrittweitenvektors an die Verstärkungsfaktor-Multiplikationseinrichtung
(31).
29. Sprachcodierungsvorrichtung nach einem der Ansprüche 16-28, in der die Rauschsignalformvektor-Sucheinrichtung
(28) enthält:
eine erste Erregungsvektor-Speichereinrichtung (67a) zum Speichern mehrerer Erregungsvektoren;
eine erste Vorauswähleinrichtung (69) zum Berechnen eines Korrelationswerts zwischen
einem von der Amplitudenbegrenzungseinrichtung (23) ausgegebenen Eingangssprachvektor
und einem von der Synthetisierungseinrichtung (26) ausgegebenen synthetischen Sprachvektor
durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche Erregungsvektoren,
die in der ersten Erregungsvektor-Speichereinrichtung (67a) gespeichert sind, und
zum Auswählen eines Erregungsvektors, der ermöglicht, daß der Korrelationswert vorgegebene
Bedingungen erfüllt;
eine zweite Erregungsvektor-Speichereinrichtung (67b) zum Speichern mehrerer Erregungsvektoren;
eine zweite Vorauswähleinrichtung (70) zum Berechnen eines Korrelationswerts zwischen
einem von der Amplitudenbegrenzungseinrichtung (23) ausgegebenen Eingangssprachvektor
und einem von der Synthetisierungseinrichtung (26) ausgegebenen synthetischen Sprachvektor
durch Ausführen einer Rückwärtsfilterung in bezug auf sämtliche Erregungsvektoren,
die in der zweiten Erregungsvektor-Speichereinrichtung (67b) gespeichert sind, und
zum Auswählen eines Erregungsvektors, der ermöglicht, daß der Korrelationswert vorgegebene
Bedingungen erfüllt;
eine Addiereinrichtung zum Addieren eines Ausgangsvektors der ersten Vorauswähleinrichtung
(69) und eines Ausgangsvektors der zweiten Vorauswähleinrichtung (70) und zum Liefern
des Additionsergebnisses an die Prädiktionsverstärkungsfaktor-Multiplikationseinrichtung
(30) als den Rauschsignalformvektor.
30. Sprachcodierungsvorrichtung nach einem der Ansprüche 28, 29, in der dann, wenn der
Eingangssprachvektor mit XT bezeichnet ist, ein Impulsantwortkoeffizient der Synthetisierungseinrichtung (26)
mit H bezeichnet ist und entweder der Schrittweitenvektor oder der Rauschsignalformvektor
mit V'i bezeichnet ist, der synthetische Sprachvektor HV'i lautet, der Korrelationswert XTTHV'i lautet und die Rückwärtsfilterung dadurch ausgeführt wird, daß zuerst XTTH berechnet wird, gefolgt von der Berechnung von (XTTH) V'i.
1. Procédé pour le codage du langage comprenant au moins quatre déroulements d'étapes
;
un premier déroulement comprenant :
une première étape (22) pour former un vecteur à partir de signaux de parole comprenant
une pluralité d'échantillons comme opération de trame élémentaire, et stocker ledit
vecteur comme vecteur d'entrée de parole ;
une deuxième étape (23) pour contrôler séquentiellement, une trame à la fois, l'amplitude
de chaque vecteur d'entrée de parole, et comprimer ladite amplitude quand la valeur
absolue de ladite amplitude dépasse une valeur prédéterminée ;
une troisième étape (24) pour exécuter une analyse de prévision linéaire et calculer
un coefficient LPC pour chaque vecteur d'entrée de parole sorti au moyen de ladite
deuxième étape ;
une quatrième étape pour convertir chaque coefficient LPC calculé dans ladite troisième
étape en un paramètre LSP ;
une cinquième étape pour quantifier ledit paramètre LSP au moyen de l'utilisation
d'un traitement de quantification vectorielle ;
une sixième étape pour convertir ledit paramètre LSP quantifié en un coefficient LPC
quantifié ;
une septième étape (26) pour synthétiser un vecteur de parole synthétique selon un
vecteur de commande fourni par l'extérieur, et ledit coefficient LPC quantifié ;
une huitième étape (33) pour calculer des données de déformation au moyen d'une déduction
dudit vecteur de parole synthétique sorti au moyen de ladite septième étape dudit
vecteur d'entrée de parole sorti au moyen de ladite deuxième étape ;
une neuvième étape (34) pour pondérer lesdites données de déformation calculées au
moyen de ladite huitième étape ; et,
une dixième étape (35) pour calculer le pouvoir de déformation desdites données de
déformation relatif à chaque donnée de déformation pondérée au moyen de ladite neuvième
étape ;
un deuxième déroulement comprenant :
une onzième étape (27) pour sélectionner un vecteur de période de pas parmi une pluralité
de vecteurs de période de pas ;
une douzième étape (28) pour sélectionner un vecteur de forme d'onde de bruit parmi
une pluralité de vecteurs de forme d'onde de bruit ;
une treizième étape (29) pour calculer un gain de prévision pour chaque vecteur de
forme d'onde de bruit sélectionné au moyen de ladite douzième étape ;
une quatorzième étape (30) pour multiplier ledit gain de prévision calculé au moyen
de ladite treizième étape par ledit vecteur de forme d'onde de bruit sélectionné au
moyen de ladite douzième étape ;
une quinzième étape (31) pour multiplier sélectivement un gain sélectionné parmi une
pluralité de gains par ledit vecteur de période de pas sélectionné au moyen de ladite
onzième étape, et un vecteur de sortie de ladite quatorzième étape ; et,
une seizième étape (32) pour additionner deux résultats de multiplication obtenus
au moyen de ladite quinzième étape, et fournir ledit résultat d'addition comme dit
vecteur de commande dans ladite septième étape ;
un troisième déroulement pour sélectionner une valeur qui réduise au minimum ledit
pouvoir de déformation calculé au moyen de ladite dixième étape pendant la sélection
d'un vecteur de période de pas selon ladite onzième étape, sélectionner un vecteur
de forme d'onde de bruit selon ladite douzième étape, et sélectionner un gain selon
ladite quinzième étape ; et,
un quatrième déroulement (36) pour coder des informations traitées obtenues au moyen
desdits moyens structurels en bits en série, ajouter un codage de correction d'erreurs
nécessaire, et transmettre ensuite lesdits bits codés en série ;
dans lequel ledit paramètre LSP quantifié au moyen de ladite cinquième étape est exprimé
au moyen d'un vecteur moyen pondéré d'une pluralité de vecteurs provenant de la présente
opération de trame et des opérations précédentes de trame.
2. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs prédéterminé (37) ;
une deuxième sous-étape pour multiplier un rapport constant (g) d'une moyenne pondérée
par ledit vecteur sélectionné au moyen de ladite première sous-étape ;
une troisième sous-étape pour multiplier un rapport constant (1-g) d'une moyenne pondérée
par ledit vecteur sélectionné au moyen de ladite première sous-étape pendant le traitement
de la trame précédant immédiatement (une trame avant) la présente opération de trame
;
une quatrième sous-étape pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen
d'une addition d'un vecteur de sortie de ladite deuxième sous-étape et d'un vecteur
de sortie de ladite troisième sous-étape ;
une cinquième sous-étape pour calculer les données de déformation entre un paramètre
LSP (ψk) avant quantification et ledit paramètre LSP quantifié (Ωk) ;
une sixième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite cinquième sous-étape pendant la sélection
d'un vecteur selon ladite première sous-étape ; et,
une septième sous-étape pour fournir des informations d'identification (S1) d'un vecteur
sélectionné selon ladite première sous-étape comme dites informations traitées dans
ledit quatrième déroulement.
3. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs prédéterminé ;
une deuxième sous-étape pour obtenir la somme des vecteurs traités de la présente
opération de trame à une opération de trame ayant lieu n trames avant la présente
opération de trame pour chaque vecteur sélectionné selon ladite première sous-étape
;
une troisième sous-étape pour obtenir ledit paramètre LSP quantifié au moyen d'une
division par n+1 d'un vecteur de sortie de ladite deuxième sous-étape ;
une quatrième sous-étape pour calculer les données de déformation entre un paramètre
LSP avant quantification et ledit paramètre LSP quantifié ;
une cinquième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite quatrième sous-étape au moment de la sélection
d'un vecteur selon ladite première sous-étape ; et,
une sixième sous-étape pour fournir des informations d'identification d'un vecteur
sélectionné selon ladite première sous-étape comme dites informations traitées dans
ledit quatrième déroulement.
4. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs prédéterminé ;
une deuxième sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs séparé ;
une troisième sous-étape pour obtenir la somme des vecteurs traités de la présente
opération de trame à une opération de trame ayant lieu n trames avant la présente
opération de trame pour chaque vecteur sélectionné selon ladite première sous-étape
;
une quatrième sous-étape pour additionner un vecteur de sortie de ladite troisième
sous-étape et ledit vecteur sélectionné au moyen de ladite deuxième sous-étape ;
une cinquième sous-étape pour obtenir ledit paramètre LSP quantifié au moyen d'une
division par n+2 dudit vecteur de sortie de ladite quatrième sous-étape ;
une sixième sous-étape pour calculer les données de déformation entre un paramètre
LSP avant quantification et ledit paramètre LSP quantifié ;
une septième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite sixième sous-étape au moment de la sélection
de vecteurs selon ladite première sous-étape et ladite deuxième sous-étape ; et,
une huitième sous-étape pour fournir des informations d'identification de vecteurs
sélectionnés selon ladite première sous-étape et ladite deuxième sous-étape comme
dites informations traitées dans ledit quatrième déroulement.
5. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour multiplier un rapport constant (gk) d'une moyenne pondérée
par chaque vecteur stocké dans un moyen de stockage de vecteurs prédéterminé (37)
;
une deuxième sous-étape pour sélectionner un vecteur parmi lesdits vecteurs multipliés
;
une troisième sous-étape pour multiplier un rapport constant (1-gk) d'une moyenne
pondérée par ledit vecteur sélectionné selon ladite deuxième sous-étape pendant le
traitement de la trame précédant immédiatement (une trame avant) la présente opération
de trame ;
une quatrième sous-étape pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen
d'une addition d'un vecteur de sortie de ladite deuxième sous-étape et d'un vecteur
de sortie de ladite troisième sous-étape ;
une cinquième sous-étape pour calculer les données de déformation entre un paramètre
LSP (ψk) avant quantification et ledit paramètre LSP quantifié (Ωk) ;
une sixième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite cinquième sous-étape au moment de la sélection
d'un vecteur selon ladite deuxième sous-étape ; et,
une septième sous-étape pour fournir des informations d'identification (S1) d'un vecteur
sélectionné selon ladite deuxième sous-étape comme dites informations traitées dans
ledit quatrième déroulement.
6. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs prédéterminé (37) ;
une deuxième sous-étape pour multiplier un rapport constant (g1) d'une première moyenne
pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape ;
une troisième sous-étape pour multiplier un rapport constant (g2) d'une deuxième moyenne
pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape ;
une quatrième sous-étape pour sélectionner un vecteur parmi un vecteur de sortie de
ladite deuxième sous-étape et un vecteur de sortie de ladite troisième sous-étape
;
une cinquième sous-étape pour multiplier un rapport constant (1-g1) d'une troisième
moyenne pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape
pendant le traitement de la trame précédant immédiatement (une trame avant) la présente
opération de trame ;
une sixième sous-étape pour multiplier un rapport constant (1-g2) d'une quatrième
moyenne pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape
pendant le traitement de la trame précédant immédiatement (une trame avant) la présente
opération de trame ;
une septième sous-étape pour sélectionner un vecteur parmi un vecteur de sortie de
ladite cinquième sous-étape et un vecteur de sortie de ladite sixième sous-étape ;
une huitième sous-étape pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen d'une
addition d'un vecteur de sortie de ladite quatrième sous-étape et d'un vecteur de
sortie de ladite septième sous-étape ;
une neuvième sous-étape pour calculer les données de déformation entre un paramètre
LSP (ψk) avant quantification et ledit paramètre LSP quantifié (Ωk) ;
une dixième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite neuvième sous-étape au moment de la sélection
d'un vecteur selon ladite première sous-étape, ladite quatrième sous-étape et ladite
septième sous-étape ; et,
une onzième sous-étape pour fournir des informations d'identification (S1, S2) d'un
vecteur sélectionné selon ladite première sous-étape, ladite quatrième sous-étape
et ladite septième sous-étape comme dites informations traitées dans ledit quatrième
déroulement.
7. Procédé pour le codage du langage selon la revendication 1, dans lequel ladite cinquième
étape comprend :
une première sous-étape pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans un moyen de stockage de vecteurs prédéterminé (37) ;
une deuxième sous-étape pour multiplier un rapport constant (g1) d'une première moyenne
pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape ;
une troisième sous-étape pour multiplier un rapport constant (g2) d'une deuxième moyenne
pondérée par ledit vecteur sélectionné au moyen de ladite première sous-étape ;
une quatrième sous-étape pour sélectionner un vecteur parmi un vecteur de sortie de
ladite deuxième sous-étape et un vecteur de sortie de ladite troisième sous-étape
;
une cinquième sous-étape pour exécuter un traitement de chaque trame de la trame précédant
immédiatement la présente opération de trame à une opération de trame ayant lieu n
trames avant la présente opération de trame, dans laquelle ledit traitement comprend
:
une étape de multiplication pour multiplier un rapport constant d'une moyenne pondérée
prédéterminée par un vecteur sélectionné au moyen de ladite première sous-étape pendant
le traitement d'une trame précédente ;
une étape de multiplication séparée pour multiplier un rapport constant d'une moyenne
pondérée prédéterminée par un vecteur sélectionné au moyen de ladite première sous-étape
pendant le traitement d'une trame précédente ; et,
une étape de sélection pour sélectionner un vecteur parmi lesdits vecteurs de sortie
desdites deux étapes de multiplication ;
une sixième sous-étape pour obtenir la somme de n vecteurs sélectionnés au moyen de
ladite cinquième sous-étape ;
une septième sous-étape pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen d'une
addition d'un vecteur de sortie de ladite quatrième sous-étape et d'un vecteur de
sortie de ladite sixième sous-étape ;
une huitième sous-étape pour calculer les données de déformation entre un paramètre
LSP (ψk) avant quantification et ledit paramètre LSP quantifié (Ωk) ;
une neuvième sous-étape pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen de ladite huitième sous-étape au moment de la sélection
d'un vecteur selon ladite première sous-étape, ladite quatrième sous-étape et ladite
cinquième sous-étape ; et,
une dixième sous-étape pour fournir des informations d'identification (S1, S2) d'un
vecteur sélectionné selon ladite première sous-étape, ladite quatrième sous-étape
et ladite cinquième sous-étape comme dites informations traitées dans ledit quatrième
déroulement.
8. Procédé pour le codage du langage selon l'une des revendications 2 à 7, dans lequel
ledit rapport constant (g, 1-g, gk, 1-gk, g1, g2, 1-g1, 1-g2) d'une moyenne pondérée
diffère de chaque élément vectoriel par lequel ledit rapport constant est multiplié.
9. Procédé pour le codage du langage selon l'une des revendications 2 à 8, dans lequel
chaque vecteur stocké dans ledit moyen de stockage de vecteurs (37) est exprimé par
la somme d'une pluralité de vecteurs comprenant différentes dimensions.
10. Procédé pour le codage du langage selon l'une des revendications 2 à 9, dans lequel
ladite étape pour sélectionner un vecteur afin de réduire au minimum les données de
déformation comprend, en ce qui concerne des paramètres w1, w2, w3,..., wp-2, wp-1,
wp comprenant un vecteur à p dimensions {w1, w2, w3,..., wp-2, wp-1, wp} sélectionné
dans ledit moyen de stockage de vecteurs (37), l'ajustement desdits paramètres quand
la relation 0 < w1 < w2 < w3 <.., wp-2 < wp-1 < wp < p n'est pas satisfaite, de manière
à ce qu'ils satisfassent ladite relation.
11. Procédé pour le codage du langage selon l'une des revendications 1 à 10, dans lequel
ladite treizième étape comprend le calcul dudit gain de prévision au moyen de l'exécution
d'une analyse de prévision linéaire basée sur la puissance d'un vecteur de sortie
de ladite quatorzième étape multiplié par un gain pendant le traitement de ladite
quinzième étape pour la trame présente, et la puissance d'un vecteur de sortie de
ladite quatorzième étape multiplié par un gain pendant le traitement de ladite quinzième
étape pour une trame antérieure.
12. Procédé pour le codage du langage selon l'une des revendications 1 à 11, dans lequel
ladite quinzième étape comprend :
une première sous-étape pour multiplier un gain sélectionné parmi une pluralité de
gains stockés dans un moyen de stockage de gains prédéterminé (31a) par la moitié
d'un vecteur de période de pas sélectionné au moyen de ladite onzième étape et la
moitié du vecteur de sortie de ladite quatorzième étape ;
une deuxième sous-étape pour multiplier un gain sélectionné parmi une pluralité de
gains stockés dans un moyen de stockage de gains prédéterminé (31b) par l'autre moitié
du vecteur de période de pas sélectionné au moyen de ladite onzième étape et l'autre
moitié du vecteur de sortie de ladite quatorzième étape ;
une troisième sous-étape pour fournir dans ladite seizième étape la somme d'un vecteur
de période de pas multiplié par un gain selon ladite première sous-étape et d'un vecteur
de période de pas multiplié par un gain selon ladite deuxième sous-étape, comme vecteur
de période de pas multiplié par un gain selon ladite quinzième étape et,
une quatrième sous-étape pour fournir dans ladite seizième étape la somme d'un vecteur
de sortie de ladite quatorzième étape multiplié par un gain selon ladite première
sous-étape et d'un vecteur de sortie de ladite quatorzième étape multiplié par un
gain selon ladite deuxième sous-étape, comme vecteur de sortie de ladite quatorzième
étape multiplié par un gain selon ladite quinzième étape.
13. Procédé pour le codage du langage selon l'une des revendications 1 à 12, dans lequel
ladite onzième étape comprend :
le calcul d'une valeur de corrélation entre un vecteur de parole d'entrée sorti au
moyen de ladite deuxième étape et un vecteur de parole synthétique sortie au moyen
de ladite septième étape, au moyen de l'exécution d'un filtrage vers l'arrière relatif
à tous les vecteurs de période de pas stockés dans un moyen de stockage de vecteurs
de période de pas prédéterminé (66) ;
la sélection d'un vecteur de période de pas qui permette à ladite valeur de corrélation
de satisfaire des conditions prédéterminées ; et,
la fourniture dudit vecteur de période de pas sélectionné dans ladite quinzième étape.
14. Procédé pour le codage du langage selon l'une des revendications 1 à 13, dans lequel
ladite douzième étape comprend :
une première sous-étape pour calculer une valeur de corrélation entre un vecteur de
parole d'entrée sorti au moyen de ladite deuxième étape et un vecteur de parole synthétique
sorti au moyen de ladite septième étape, au moyen de l'exécution d'un filtrage vers
l'arrière relatif à tous les vecteurs d'excitation stockés dans un premier moyen de
stockage de vecteurs d'excitation (67a), et sélectionner un vecteur d'excitation qui
permette à ladite valeur de corrélation de satisfaire des conditions prédéterminées
;
une deuxième sous-étape pour calculer une valeur de corrélation entre un vecteur de
parole d'entrée sorti au moyen de ladite deuxième étape et un vecteur de parole synthétique
sorti au moyen de ladite septième étape, au moyen de l'exécution d'un filtrage vers
l'arrière relatif à tous les vecteurs d'excitation stockés dans un deuxième moyen
de stockage de vecteurs d'excitation (67b), et sélectionner un vecteur d'excitation
qui permette à ladite valeur de corrélation de satisfaire des conditions prédéterminées
; et,
une troisième sous-étape pour additionner un vecteur de sortie de ladite première
sous-étape et un vecteur de sortie de ladite deuxième sous-étape, et fournir ledit
résultat d'addition dans ladite quatorzième étape comme dit vecteur de forme d'onde
de bruit.
15. Procédé pour le codage du langage selon l'une des revendications 13, 14, dans lequel,
quand ledit vecteur de parole d'entrée est indiqué par XT, un coefficient de réponse impulsionnelle de ladite septième étape est indiqué par
H, et l'un dudit vecteur de période de pas et dudit vecteur de forme d'onde de bruit
est indiqué par V'i, ledit vecteur de parole synthétique est alors égal à HV'i, ladite valeur de corrélation est égale à XTTHV'i, et ledit filtrage vers l'arrière est exécuté au moyen d'un premier calcul de XTTH, suivi par le calcul de (XTTH)V'i.
16. Appareil pour le codage du langage comprenant ;
un tampon (22) pour former un vecteur à partir de signaux de parole comprenant une
pluralité d'échantillons comme opération de trame élémentaire, et stocker ledit vecteur
comme vecteur d'entrée de parole ;
un moyen de limitation d'amplitude (23) pour contrôler séquentiellement, une trame
à la fois, l'amplitude de chaque vecteur d'entrée de parole stocké dans ledit tampon
(22), et comprimer ladite amplitude quand la valeur absolue de ladite amplitude dépasse
une valeur prédéterminée ;
un moyen d'analyse LPC (24) pour exécuter une analyse de prévision linéaire et calculer
un coefficient LPC pour chaque vecteur d'entrée de parole sorti au moyen dudit moyen
de limitation d'amplitude (23) ;
un moyen de conversion de coefficient LPC en paramètre pour convertir chaque coefficient
LPC calculé au moyen dudit moyen d'analyse LPC (24) en un paramètre LSP ;
un moyen de quantification vectorielle pour quantifier ledit paramètre LSP au moyen
de l'utilisation d'un traitement de quantification vectorielle ;
un moyen de conversion en coefficient LPC pour convertir ledit paramètre LSP quantifié
en un coefficient LPC quantifié ;
un moyen de synthèse (26) pour synthétiser un vecteur de parole synthétique selon
un vecteur de commande fourni par l'extérieur, et ledit coefficient LPC quantifié
;
un moyen de calcul de données de déformation (33) pour calculer des données de déformation
au moyen d'une déduction dudit vecteur de parole synthétique sorti au moyen dudit
moyen de synthèse (26) dudit vecteur d'entrée de parole sorti au moyen dudit moyen
de limitation d'amplitude (23) ;
un moyen de pondération de perceptibilité (34) pour pondérer lesdites données de déformation
obtenues au moyen dudit moyen de calcul de données de déformation (33) ;
un moyen de calcul de pouvoir de déformation (35) pour calculer le pouvoir de déformation
desdites données de déformation relatif à chaque donnée de déformation pondérée au
moyen dudit moyen de pondération de perceptibilité (34) ;
un moyen de recherche de vecteur de période de pas (27) pour stocker une pluralité
de vecteurs de période de pas, et pour sélectionner un vecteur de période de pas parmi
ladite pluralité des vecteurs de période de pas stockés ;
un moyen de recherche de vecteur de forme d'onde de bruit (28) pour stocker une pluralité
de vecteurs de forme d'onde de bruit, et pour sélectionner un vecteur de forme d'onde
de bruit parmi ladite pluralité des vecteurs de forme d'onde de bruit stockés ;
un moyen d'adaptation de gain (29) pour calculer un gain de prévision pour chaque
vecteur de forme d'onde de bruit sélectionné au moyen dudit moyen de recherche de
vecteur de forme d'onde de bruit (28) ;
un moyen de multiplication de gain de prévision (30) pour multiplier ledit gain de
prévision calculé au moyen dudit moyen d'adaptation de gain (29) par ledit vecteur
de forme d'onde de bruit sélectionné au moyen dudit moyen de recherche de vecteur
de forme d'onde de bruit (28) ;
un moyen de multiplication de gain (31) pour stocker une pluralité de gains, et pour
multiplier respectivement un gain sélectionné parmi ladite pluralité des gains stockés
par ledit vecteur de période de pas sélectionné au moyen dudit moyen de recherche
de vecteur de période de pas (27) et un vecteur de sortie dudit moyen de multiplication
de gain de prévision (30) ;
un moyen d'addition (32) pour additionner deux résultats de multiplication obtenus
au moyen dudit moyen de multiplication de gain (31), et fournir ledit résultat d'addition
audit moyen de synthèse (26) comme dit vecteur de commande ;
un moyen de commande pour sélectionner une valeur qui réduise au minimum ledit pouvoir
de déformation calculé au moyen dudit moyen de calcul de pouvoir de déformation (35)
pendant la sélection d'un vecteur de période de pas au moyen dudit moyen de recherche
de vecteur de période de pas (27), sélectionner un vecteur de forme d'onde de bruit
au moyen dudit moyen de recherche de vecteur de forme d'onde de bruit (28), et sélectionner
un gain au moyen dudit moyen de multiplication de gain (31) ; et,
un moyen de sortie de code (36) pour coder des informations traitées obtenues au moyen
desdits moyens structurels en bits en série, ajouter un codage de correction d'erreurs
nécessaire, et transmettre ensuite lesdits bits codés en série ;
dans lequel ledit paramètre LSP quantifié au moyen dudit moyen de quantification vectorielle
est exprimé au moyen d'un vecteur moyen pondéré d'une pluralité de vecteurs provenant
de la présente opération de trame et des opérations précédentes de trame.
17. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un moyen de stockage de vecteurs (37) pour stocker une pluralité de vecteurs ;
un moyen de sélection (40) pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans ledit moyen de stockage de vecteurs (37) ;
un premier moyen de multiplication (42) pour multiplier un rapport constant (g) d'une
moyenne pondérée par ledit vecteur sélectionné au moyen dudit moyen de sélection (40)
;
un second moyen de multiplication (38) pour multiplier un rapport constant (1-g) d'une
moyenne pondérée par ledit vecteur sélectionné au moyen dudit moyen de sélection (40)
pendant le traitement de la trame précédant immédiatement (une trame avant) la présente
opération de trame ;
un moyen d'addition (39) pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen
de l'addition d'un vecteur de sortie dudit premier moyen de multiplication (42) et
d'un vecteur de sortie dudit second moyen de multiplication (38) ;
un moyen de calcul de données de déformation (41) pour calculer les données de déformation
entre un paramètre LSP (ψk) avant quantification et ledit paramètre LSP quantifié
(Ωk) ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
(41) au moment de la sélection d'un vecteur au moyen dudit moyen de sélection (40)
; et,
un moyen de fourniture pour fournir des informations d'identification (S1) d'un vecteur
sélectionné au moyen dudit moyen de sélection (40) comme dites informations traitées
audit moyen de sortie de code (36).
18. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un moyen de stockage de vecteurs pour stocker une pluralité de vecteurs ;
un moyen de sélection pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans ledit moyen de stockage de vecteurs ;
un moyen d'addition pour calculer la somme des vecteurs traités de la présente opération
de trame à une opération de trame ayant lieu n trames avant la présente opération
de trame pour chaque vecteur sélectionné au moyen dudit moyen de sélection ;
un moyen de division pour calculer ledit paramètre LSP quantifié au moyen d'une division
par n+1 du vecteur de sortie de ladite seconde sous-étape ;
un moyen de calcul de données de déformation pour calculer les données de déformation
entre un paramètre LSP avant quantification et ledit paramètre LSP quantifié ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
au moment de la sélection d'un vecteur au moyen dudit moyen de sélection ; et,
un moyen de fourniture pour fournir des informations d'identification d'un vecteur
sélectionné au moyen dudit moyen de sélection comme dites informations traitées audit
moyen de sortie de code (36).
19. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un premier moyen de stockage de vecteurs pour stocker une pluralité de vecteurs ;
un premier moyen de sélection pour sélectionner un vecteur parmi une pluralité de
vecteurs stockés dans ledit premier moyen de stockage de vecteurs ;
un second moyen de stockage de vecteurs pour stocker une pluralité de vecteurs ;
un second moyen de sélection pour sélectionner un vecteur parmi une pluralité de vecteurs
stockés dans ledit second moyen de stockage de vecteurs ;
un premier moyen d'addition pour obtenir la somme des vecteurs traités de la présente
opération de trame à une opération de trame ayant lieu n trames avant la présente
opération de trame pour chaque vecteur sélectionné au moyen dudit premier moyen de
sélection ;
un second moyen d'addition pour additionner un vecteur de sortie dudit premier moyen
d'addition et ledit vecteur sélectionné au moyen dudit second moyen de sélection ;
un moyen de division pour obtenir ledit paramètre LSP quantifié au moyen d'une division
par n+2 dudit vecteur de sortie dudit second moyen d'addition ;
un moyen de calcul de données de déformation pour calculer les données de déformation
entre un paramètre LSP avant quantification et ledit paramètre LSP quantifié ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
au moment de la sélection de vecteurs au moyen dudit premier moyen de sélection et
dudit second moyen de sélection ; et,
un moyen de fourniture pour fournir des informations d'identification de vecteurs
sélectionnés au moyen dudit premier moyen de sélection et dudit second moyen de sélection
comme dites informations traitées audit moyen de sortie de code (36).
20. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un moyen de stockage de vecteurs (37) pour stocker une pluralité de vecteurs ;
des moyens de multiplication (451-45n) pour multiplier un rapport constant (gk) d'une moyenne pondérée par chaque vecteur
stocké dans ledit moyen de stockage de vecteurs (37) ;
un moyen de sélection (46) pour sélectionner un vecteur parmi lesdits vecteurs multipliés
;
un moyen de multiplication (47) pour multiplier un rapport constant (1-gk) d'une moyenne
pondérée par ledit vecteur sélectionné au moyen dudit moyen de sélection (46) pendant
le traitement de la trame précédant immédiatement (une trame avant) la présente opération
de trame ;
un moyen d'addition (39) pour obtenir ledit paramètre LSP quantifié (Ωk) au moyen
de l'addition d'un vecteur de sortie dudit moyen de sélection (46) et d'un vecteur
de sortie dudit moyen de multiplication (47) ;
un moyen de calcul de données de déformation (41) pour calculer les données de déformation
entre un paramètre LSP (ψk) avant quantification et ledit paramètre LSP quantifié
(Ωk) ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
(41) au moment de la sélection d'un vecteur au moyen dudit moyen de sélection (46)
; et,
un moyen de fourniture pour fournir des informations d'identification (S1) d'un vecteur
sélectionné au moyen dudit moyen de sélection (46) comme dites informations traitées
audit moyen de sortie de code (36).
21. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un moyen de stockage de vecteurs (37) pour stocker une pluralité de vecteurs ;
un premier moyen de sélection (40) pour sélectionner un vecteur parmi une pluralité
de vecteurs stockés dans ledit moyen de stockage de vecteurs (37) ;
un premier moyen de multiplication (50) pour multiplier un rapport constant (g1) d'une
première moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier moyen
de sélection (40) ;
un deuxième moyen de multiplication (51) pour multiplier un rapport constant (g2)
d'une deuxième moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier
moyen de sélection (40) ;
un deuxième moyen de sélection (52) pour sélectionner un vecteur parmi un vecteur
de sortie dudit premier moyen de multiplication (50) et un vecteur de sortie dudit
deuxième moyen de multiplication (51) ;
un troisième moyen de multiplication (47) pour multiplier un rapport constant (1-g1)
d'une troisième moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier
moyen de sélection (40) pendant le traitement de la trame précédant immédiatement
(une trame avant) la présente opération de trame ;
un quatrième moyen de multiplication (48) pour multiplier un rapport constant (1-g2)
d'une quatrième moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier
moyen de sélection (40) pendant le traitement de la trame précédant immédiatement
(une trame avant) la présente opération de trame ;
un troisième moyen de sélection (49) pour sélectionner un vecteur parmi un vecteur
de sortie dudit troisième moyen de multiplication (47) et un vecteur de sortie dudit
quatrième moyen de multiplication (48) ;
un moyen d'addition (39) pour additionner ledit paramètre LPS quantifié (Ωk) au moyen
de l'addition d'un vecteur de sortie dudit deuxième moyen de sélection (52) et d'un
vecteur de sortie dudit troisième moyen de sélection (49);
un moyen de calcul de données de déformation (41) pour calculer les données de déformation
entre un paramètre LSP (ψk) avant quantification et ledit paramètre LSP quantifié
(Ωk) ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
(41) au moment de la sélection d'un vecteur au moyen dudit premier moyen de sélection
(40), dudit deuxième moyen de sélection (52) et dudit troisième moyen de sélection
(49) ; et,
un moyen de fourniture pour fournir des informations d'identification (S1, S2) d'un
vecteur sélectionné au moyen dudit premier moyen de sélection (40), dudit deuxième
moyen de sélection (52) et dudit troisième moyen de sélection (49) comme dites informations
traitées audit moyen de sortie de code (36).
22. Appareil pour le codage du langage selon la revendication 16, dans lequel ledit moyen
de quantification vectorielle comprend :
un moyen de stockage de vecteurs (37) pour stocker une pluralité de vecteurs ;
un premier moyen de sélection (40) pour sélectionner un vecteur parmi une pluralité
de vecteurs stockés dans ledit moyen de stockage de vecteurs (37) ;
un premier moyen de multiplication (50) pour multiplier un rapport constant (g1) d'une
première moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier moyen
de sélection (40) ;
un second moyen de multiplication (51) pour multiplier un rapport constant (g2) d'une
deuxième moyenne pondérée par ledit vecteur sélectionné au moyen dudit premier moyen
de sélection (40) ;
un second moyen de sélection (52) pour sélectionner un vecteur parmi un vecteur de
sortie dudit premier moyen de multiplication (50) et un vecteur de sortie dudit second
moyen de multiplication (51) ;
un moyen de pondération à plusieurs étages comportant un moyen de traitement pour
exécuter le traitement de chaque trame de la trame précédant immédiatement la présente
opération de trame à une opération de trame ayant lieu n trames avant la présente
opération de trame, ledit moyen de traitement comprenant :
des moyens de multiplication (47, 56, 58, 60) pour multiplier un rapport constant
d'une moyenne pondérée prédéterminée par un vecteur sélectionné au moyen dudit premier
moyen de sélection (40) pendant le traitement d'une trame précédente ;
des moyens de multiplication séparés (48, 57, 59, 61) pour multiplier un rapport constant
d'une moyenne pondérée prédéterminée par un vecteur sélectionné au moyen dudit premier
moyen de sélection (40) pendant le traitement d'une trame précédente ; et
des moyens de sélection (49, 62, 63, 64) pour sélectionner un vecteur parmi lesdits
vecteurs de sortie desdits deux moyens de multiplication ;
des premiers moyens d'addition (53, 54, 55) pour obtenir la somme de n vecteurs sélectionnés
au moyen dudit moyen de pondération à plusieurs étages ;
un second moyen d'addition (39) pour obtenir ledit paramètre LSP quantifié (Ωk) au
moyen de l'addition d'un vecteur de sortie dudit second moyen de sélection (52) et
d'un vecteur de sortie dudit premier moyen d'addition (53) ;
un moyen de calcul de données de déformation (41) pour calculer les données de déformation
entre un paramètre LSP (ψk) avant quantification et ledit paramètre LSP quantifié
(Ωk) ;
un moyen de commande pour sélectionner un vecteur qui réduise au minimum les données
de déformation calculées au moyen dudit moyen de calcul de données de déformation
(41) au moment de la sélection d'un vecteur au moyen desdits moyens de sélection (40,
52, 49, 62, 63, 64) ; et,
un moyen de fourniture pour fournir des informations d'identification (S1, S2), d'un
vecteur sélectionné au moyen desdits moyens de sélection (40, 52, 49, 62, 63, 64)
comme dites informations traitées audit moyen de sortie de code (36).
23. Appareil pour le codage du langage selon l'une des revendications 17 à 22, dans lequel
ledit rapport constant (g, 1-g, gk, 1-gk, g1, g2, 1-g1, 1-g2) d'une moyenne pondérée
diffère de chaque élément vectoriel par lequel ledit rapport constant est multiplié.
24. Appareil pour le codage du langage selon l'une des revendications 17 à 23, dans lequel
chaque vecteur stocké dans ledit moyen de stockage de vecteurs (37) est exprimé par
la somme d'une pluralité de vecteurs comprenant différentes dimensions.
25. Appareil pour le codage du langage selon l'une des revendications 17 à 24, dans lequel
ledit moyen de commande, en ce qui concerne des paramètres w1, w2, w3,..., wp-2, wp-1,
wp comprenant un vecteur à p dimensions {w1, w2, w3,..., wp-2, wp-1, wp} sélectionné
dans ledit moyen de stockage de vecteurs (37), ajuste lesdits paramètres quand la
relation 0 < w1 < w2 < w3 <... wp-2 < wp-1 < wp < p n'est pas satisfaite, de manière
à ce qu'ils satisfassent ladite relation.
26. Appareil pour le codage du langage selon l'une des revendications 16 à 25, dans lequel
ledit moyen d'adaptation de gain (29) calcule ledit gain de prévision au moyen de
l'exécution d'une analyse de prévision linéaire basée sur la puissance d'un vecteur
de sortie d'un moyen de multiplication de gain de prévision (30) multiplié par un
gain pendant le traitement d'un moyen de multiplication de gain (31) pour la présente
trame, et la puissance d'un vecteur de sortie d'un moyen de multiplication de gain
de prévision (30) multiplié par un gain pendant le traitement d'un moyen de multiplication
de gain (31) pour une trame antérieure.
27. Appareil pour le codage du langage selon l'une des revendications 16 à 26 dans lequel
ledit moyen de multiplication de gain (31) comprend :
un premier moyen de multiplication de sous-gain (31a) pour multiplier un gain sélectionné
parmi une pluralité de gains qui y sont stockés par la moitié d'un vecteur de période
de pas sélectionné au moyen dudit moyen de recherche de vecteur de période de pas
(27) et la moitié d'un vecteur de sortie dudit moyen de multiplication de gain de
prévision (30) ;
un second moyen de multiplication de sous-gain (31b) pour multiplier un gain sélectionné
parmi une pluralité de gains qui y sont stockés par l'autre moitié du vecteur de période
de pas sélectionné au moyen dudit moyen de recherche de vecteur de période de pas
(27) et l'autre moitié du vecteur de sortie dudit moyen de multiplication de gain
de prévision (30) ;
un premier moyen d'addition pour fournir audit moyen d'addition (32) la somme d'un
vecteur de période de pas multiplié par un gain au moyen dudit premier moyen de multiplication
de sous-gain (31a) et d'un vecteur de période de pas multiplié par un gain au moyen
dudit second moyen de multiplication de sous-gain (31b), comme vecteur de période
de pas multiplié par un gain au moyen dudit moyen de multiplication de gain (31) ;
et,
un second moyen d'addition pour fournir audit moyen d'addition (32) la somme d'un
vecteur de sortie dudit moyen de multiplication de gain de prévision (30) multiplié
par un gain au moyen dudit premier moyen de multiplication de sous-gain (31a) et d'un
vecteur de sortie dudit moyen de multiplication de gain de prévision (30) multiplié
par un gain au moyen dudit second moyen de multiplication de sous-gain (31b), comme
vecteur de sortie dudit moyen de multiplication de gain de prévision (30) multiplié
par un gain au moyen dudit moyen de multiplication de gain (31).
28. Appareil pour le codage du langage selon l'une des revendications 16 à 27, dans lequel
ledit moyen de recherche de vecteur de période de pas (27) comprend :
un moyen de présélection (68) pour calculer une valeur de corrélation entre un vecteur
de parole d'entrée sorti au moyen dudit moyen de limitation d'amplitude (23) et un
vecteur de parole synthétique sorti au moyen dudit moyen de synthèse (26), au moyen
de l'exécution d'un filtrage vers l'arrière relatif à tous les vecteurs de période
de pas stockés dans ledit moyen de stockage de vecteurs de période de pas (66), sélectionner
un vecteur de période de pas qui permette à ladite valeur de corrélation de satisfaire
des conditions prédéterminées, et fournir ledit vecteur de période de pas sélectionné
audit moyen de multiplication de gain (31).
29. Appareil pour le codage du langage selon l'une des revendications 16 à 28, dans lequel
ledit moyen de recherche de vecteur de forme d'onde de bruit (28) comprend :
un premier moyen de stockage de vecteurs d'excitation (67a) pour stocker une pluralité
de vecteurs d'excitation ;
un premier moyen de présélection (69) pour calculer une valeur de corrélation entre
un vecteur de parole d'entrée sorti au moyen dudit moyen de limitation d'amplitude
(23) et un vecteur de parole synthétique sorti au moyen dudit moyen de synthèse (26),
au moyen de l'exécution d'un filtrage vers l'arrière relatif à tous les vecteurs d'excitation
stockés dans ledit premier moyen de stockage de vecteurs d'excitation (67a), et sélectionner
un vecteur d'excitation qui permette à ladite valeur de corrélation de satisfaire
des conditions prédéterminées ;
un second moyen de stockage de vecteurs d'excitation (67b) pour stocker une pluralité
de vecteurs d'excitation ;
un second moyen de présélection (70) pour calculer une valeur de corrélation entre
un vecteur de parole d'entrée sorti au moyen dudit moyen de limitation d'amplitude
(23) et un vecteur de parole synthétique sorti au moyen dudit moyen de synthèse (26),
au moyen de l'exécution d'un filtrage vers l'arrière relatif à tous les vecteurs d'excitation
stockés dans ledit second moyen de stockage de vecteurs d'excitation (67b), et sélectionner
un vecteur d'excitation qui permette à ladite valeur de corrélation de satisfaire
des conditions prédéterminées ; et,
un moyen d'addition pour additionner un vecteur de sortie dudit premier moyen de présélection
(69) et un vecteur de sortie dudit second moyen de présélection (70), et fournir ledit
résultat d'addition audit moyen de multiplication de gain de prévision (30) comme
dit vecteur de forme d'onde de bruit.
30. Appareil pour le codage du langage selon l'une des revendications 28, 29, dans lequel,
quand ledit vecteur de parole d'entrée est indiqué par XT, un coefficient de réponse impulsionnelle dudit moyen de synthèse (26) est indiqué
par H, et l'un dudit vecteur de période de pas et dudit vecteur de forme d'onde de
bruit est indiqué par V'i, ledit vecteur de parole synthétique est égal à HV'i, ladite valeur de corrélation est égale à XTTHV'i, et ledit filtrage vers l'arrière est exécuté au moyen d'un premier calcul de XTTH, suivi d'un calcul de (XTTH)V'i.